dimg

dimg
Рейтинг
144
Регистрация
13.04.2008

Vonivas, хотелось бы все же иметь возможность списком добавлять, а не разыскивать их по всему Pr.Sape.

Тем более что в sape и article.sape такая возможность есть. Что помешало здесь сделать непонятно.

Такой вопрос, кто-нибудь знает, где в Pr.Sape Избранное?

В поиске галочка есть, где добавить сайты найти не смог.

Сейчас у заявки статус "Требует уточнения". Посмотрите причину указанную вебмастером и скорректируйте ваше задание.

Такой вопрос, где искать причину? Перерыл весь Pr.Sape, ничего не нашел.

Надо сказать уровень справки на бирже нулевой, в том плане, что информации в нем ровно ноль. А полудохлый обучающий ролик (дань новомодным традициям, для тех кто читать не умеет) может дать ответ только на то, что и так видно.

MIND:
Вкладки специально создавались независимыми друг от друга.

Это конечно дает бОльшую свободу действий, чем при зависимых вкладках, но теперь будут просить инструменты для работы одновременно со всеми вкладками.:)

Это неизбежно, поскольку полная независимость нужна только при составлении ядра для разных сайтов, а для одного ядра явно понадобятся функции (как прогноз :)):

1. Чистка по стопсловам для всех вкладок одновременно.

2. Исключение дублирования запросов на разных вкладках (не всегда, но обычно это требуется).

3. Указание при парсинге куда размещать запросы по каждому запросу.

Наверняка найдутся еще пожелания

соберите ядро, затем скопируйте, а не перенесите, нужные слова в отдельную вкладку, при этом первую, основную со ВСЕМИ словами не трогайте и не удаляйте из нее ничего

Не удаляя слова из исходной вкладки, трудно избежать дублирования запросов при разнесении по вкладкам, да и работать с длинным неуменьшающимся списком муторно и долго.

Есть конечно решение - копировать на промежуточную вкладку, а оттуда уже разносить.

Новые запросы можно фильтровать на общей вкладке по дате добавления, но хотелось бы получить возможность удаления дублирующихся запросов более легким методом.

Лучшим вариантом здесь было бы недобавление при парсинге запросов, которые уже есть в файле, чем любой из методов постфильтрации.

у вкладок назначение как раз такое, разбивка на разные темы, а "допарсинг" это уже новые данные, как без них то если заново начинаете получать ключи

да я не хочу получать ключи, которые у меня уже есть и возиться с ними, вручную их сортировать заново, но возможности отбросить их сразу при парсинге нет

да и потом тоже нечем, кроме как сидеть и руками удалять запросы, которые уже есть в ядре, а если их 100 тысяч?

Решил опробовать работу с разными вкладками и вылез большой недостаток - программа не проверяет при парсинге есть ли запросы на других вкладках и добавляет запросы которые уже как бы есть в ядре.

Чтобы было точно понятно, опишу процесс работы.

1. Первый раз парсим все запросы

2. Чистим от лишних запросов

3. Остаток рассортировываем по вкладкам для удобства работы

4. Спустя какое-то время дополнительно парсим источники с целью получить новые запросы (например из статистики сайта) и получаем опять те же запросы, которые уже есть в файле, от которых опять нужно как-то избавиться.

Если один проект - одно ядро, то зачем добавлять запросы, которые уже есть?

С этим сделать что-то можно?

Nat_SeoPult:

Могу сказать что оба направления важны для нас и Система развивается одновременно и для конечных пользователей, и для агентств.

Вот оооочень давно хочу узнать, что же такого есть для агентств, чтобы можно было как-то использовать для построения технологического проекта у себя в компании с учетом этих возможностей seopult.

Может отправите в личку развернутый список таких возможностей с условиями, при которых они становятся доступны?

И второй вопрос, когда уже наконец сделаете, чтобы можно было ручной режим для каждого ключевика настраивать отдельно, а не целиком для проекта?

Что-то сегодня хотел скачать актуальную версию keycollector на данный момент, чтобы поставить на другой комп, минут 10 искал по сайту, но так и не нашел.

dimg добавил 19.07.2011 в 05:10

Где ее скачать-то можно?

Еще раз повторюсь - при желании сайт можно разобрать на атомы

И забросить потом свои зубы на полку за ненадобностью.

Анализ главной страницы вашего сайта с рекомендациями - 10 у.е.
Анализ за внутреннюю страницу сайта с рекомендациями - 7 у.е.

Прикидываем 100 страниц с сайта обойдутся всего в 700 у.е.

Теперь, если подумать, где можно еще проанализировать страничку и желательно бесплатно? И, о чудо! Оказывается таких сервисов как минимум 3 - Seopult, Rookee и Webeffector! А ведь есть еще и платные.

Так вот хотелось бы знать, что в вашем анализе есть такого, чего нет там?

Учитывая, что выполняется он явно программой, без участия человека.

Всего: 815