Vonivas, хотелось бы все же иметь возможность списком добавлять, а не разыскивать их по всему Pr.Sape.
Тем более что в sape и article.sape такая возможность есть. Что помешало здесь сделать непонятно.
Такой вопрос, кто-нибудь знает, где в Pr.Sape Избранное?
В поиске галочка есть, где добавить сайты найти не смог.
Такой вопрос, где искать причину? Перерыл весь Pr.Sape, ничего не нашел.
Надо сказать уровень справки на бирже нулевой, в том плане, что информации в нем ровно ноль. А полудохлый обучающий ролик (дань новомодным традициям, для тех кто читать не умеет) может дать ответ только на то, что и так видно.
Это конечно дает бОльшую свободу действий, чем при зависимых вкладках, но теперь будут просить инструменты для работы одновременно со всеми вкладками.:)
Это неизбежно, поскольку полная независимость нужна только при составлении ядра для разных сайтов, а для одного ядра явно понадобятся функции (как прогноз :)):
1. Чистка по стопсловам для всех вкладок одновременно.
2. Исключение дублирования запросов на разных вкладках (не всегда, но обычно это требуется).
3. Указание при парсинге куда размещать запросы по каждому запросу.
Наверняка найдутся еще пожелания
Не удаляя слова из исходной вкладки, трудно избежать дублирования запросов при разнесении по вкладкам, да и работать с длинным неуменьшающимся списком муторно и долго.
Есть конечно решение - копировать на промежуточную вкладку, а оттуда уже разносить.
Новые запросы можно фильтровать на общей вкладке по дате добавления, но хотелось бы получить возможность удаления дублирующихся запросов более легким методом.
Лучшим вариантом здесь было бы недобавление при парсинге запросов, которые уже есть в файле, чем любой из методов постфильтрации.
да я не хочу получать ключи, которые у меня уже есть и возиться с ними, вручную их сортировать заново, но возможности отбросить их сразу при парсинге нет
да и потом тоже нечем, кроме как сидеть и руками удалять запросы, которые уже есть в ядре, а если их 100 тысяч?
Решил опробовать работу с разными вкладками и вылез большой недостаток - программа не проверяет при парсинге есть ли запросы на других вкладках и добавляет запросы которые уже как бы есть в ядре.
Чтобы было точно понятно, опишу процесс работы.
1. Первый раз парсим все запросы
2. Чистим от лишних запросов
3. Остаток рассортировываем по вкладкам для удобства работы
4. Спустя какое-то время дополнительно парсим источники с целью получить новые запросы (например из статистики сайта) и получаем опять те же запросы, которые уже есть в файле, от которых опять нужно как-то избавиться.
Если один проект - одно ядро, то зачем добавлять запросы, которые уже есть?
С этим сделать что-то можно?
Вот оооочень давно хочу узнать, что же такого есть для агентств, чтобы можно было как-то использовать для построения технологического проекта у себя в компании с учетом этих возможностей seopult.
Может отправите в личку развернутый список таких возможностей с условиями, при которых они становятся доступны?
И второй вопрос, когда уже наконец сделаете, чтобы можно было ручной режим для каждого ключевика настраивать отдельно, а не целиком для проекта?
Что-то сегодня хотел скачать актуальную версию keycollector на данный момент, чтобы поставить на другой комп, минут 10 искал по сайту, но так и не нашел.
dimg добавил 19.07.2011 в 05:10
Где ее скачать-то можно?
И забросить потом свои зубы на полку за ненадобностью.
Прикидываем 100 страниц с сайта обойдутся всего в 700 у.е.
Теперь, если подумать, где можно еще проанализировать страничку и желательно бесплатно? И, о чудо! Оказывается таких сервисов как минимум 3 - Seopult, Rookee и Webeffector! А ведь есть еще и платные.
Так вот хотелось бы знать, что в вашем анализе есть такого, чего нет там?
Учитывая, что выполняется он явно программой, без участия человека.