Platon007

Рейтинг
145
Регистрация
22.08.2008

Sнэйк, можно ведь копировать список ключевиков. Ctrl + C

maskedball, отлично.

Но по возможности я всё-таки сделаю подобную вещь.

ну сделаешь ты ее нормальной или нет в конце концов?

Можно человеку, поставившему мне такое в репу, пояснить про "нормальную"? Что не так?

maskedball, явление объяснимое.

Сейчас сравниваются позиции выбранного сеанса и непосредственно предыдущего сеанса, т.е. если в предыдущий раз позиции вообще не было, то считается, что сравнивать и не с чем.

До 16-й версии сравнивалась текущая и ближайшая предыдущая позиция, т.е. не обязательно за последний сеанс.

Platon007 добавил 04.12.2008 в 10:28

Или лучше сравнивать как было раньше?

Всем добра утро. Новый день - новые решения:

Версия 0.5.16

- оптимизирована обработка данных в таблице истории анализа (уменьшилась задержка отклика на клики по списку сеансов и списку сайтов в окне Истории анализа)

- оптимизирована предварительная обработка данных процесса анализа позиций. (Быстрее появляется окно анализа)

* Крайне рекомендуется сменить пользователям, проверяющим более 100 ключевых фраз на проект.

--------------------

Лично у меня Celeron 2GHz медленно обрабатывает клики по списку сеансов и сайтов. Накопилась достаточная история с 9 октября.

Таблица с 5 ключевыми и 4 поисковиками заставляет задуматься программу.

Оптимизировал - стало много раз легче.

Что же будет у мастеров с 100 и более ключевиков? Очень прошу отписаться по этому поводу в топик людей с богатой историей и числом кеев >= 25 на проект.

:) исправилено.

Platon007 добавил 02.12.2008 в 11:11

Pavel, нет, рамблер фурычит.

Всем добра утро.

Поступили жалобы на то, что невозможно скопировать списки ключевиков и прочего в беффер.

Также был проявлен интерес к возможностям программы использовать настраиваемые движки поисковых систем.

В итоге, что в новом релизе:

+++ У программы появилась иконка, чему я несказанно рад. Осталось только титульник придумать.

+ Появилась новая версия конфирурируемого парсера результатов запросов ПС (ниже подробней)

+ копировать данные можно из всех списков, копировать данные из таблиц и вставлять, скажем в Excel, все данные будут раскинуты по нужным ячейкам.

- найдено отсутствие менеджера паузы между запросами в конфигурируемом парсере. Устранено.

О новой версии конфигурируемого парсера.

Давно меня попросили сделать конфигурируемый парсер. Я сделал. Но он не мог конкурировать с некоторыми другими настраиваемыми парсерами.

Тогда я решил написать более удобную версию. Что получилось:

файл инсталяции подкладываем в корень программы.

install.xml


<seinstall>
<item>
<name>TUT.by</name>
<id-name>tut.by</id-name>
<class-name>ru.vingrad.platon.sespider.ConfigurableSpider2</class-name>
<requests-per-period>1</requests-per-period>
<period>4000</period>
</item>
</seinstall>

Файл настройки поисковика conf_spiders2/tut.by.cfg

conf_spiders2 - это папка!!!


query=http://search.tut.by/?status=1&encoding=1&page={POSITION}&how=rlv&query={QUERY}
regexp=<li>\\s*<h3>\\s*<a href="{SITE}">.*?</a>\\s*<a href=".+?" target="_blank">{TITLE}</a>.*?</h3>{DESCRIPTION}<br>
items-per-page=15
query.encoding=windows-1251
query.units=PAGE
content.encoding=windows-1251

Как видим, число переменных слегка уменьшилось.

По порядку:

query - строка запроса, как она написана в браузере. В ней есть 2 настраиваемых переменных:

{POSITION} - позиция (страница или абсолютная позиция) с которой начинается выдача

{QUERY} - фраза-запрос поисковику

regexp - регулярное выражение, которое подходит одной позиции выдачи.

Переменные:

{SITE} - ссылка на страницу сайта.

{TITLE} - заголовок страницы сайта.

{DESCRIPTION} - наиболее релевантная часть страницы сайта.

items-per-page - количество позиций на странице (по умолчанию 10)

query.encoding - кодировка, в которой отправляется запрос. (для русскоязычных чаще всего windows-1251)

query.units - Единицы, в которых измеряется переменная {POSITION} в строке запроса query. Bvttn 2 значения: PAGE и ABSOLUTE.

Пример:

google.ru просит работать в терминах аболютных значений (ABSOLUTE), т.е. первая страница - 0, вторая - 10, третья - 20 и т.д...

rambler.ru просит работать в терминах страничных (PAGE). т.е. первая страница = 0, вторая = 1, третья 2 и т.д...

content.encoding - кодировка текста страницы. Поле крайне необязательное, если сервер шлет в заголовках кодировку сайта, что чаще всего бывает. но вот tut.by предлагает работать с meta тегами, эти случаи надо вбивать эту переменную.

Обратите внимание на регэксп!!! Символы экранирования также экранируются!!! Специфика Java Properties файлов.

Могу предложить бесплатную программу определения позиций SESpider :)

☝ Остается найти мат помощь!

Сортировку добавил.

Platon007 добавил 28.11.2008 в 15:20

victim:
Сохранение/несохранение это ты о чем?

Дело в том, что ключевые фразы идут на проверку в той очереди, в которой они находятся в списке. А если список составлен и необходимо добавить важную фразу, и чтоб ее в самом начале анализа обрабатывало. Это я имел ввиду.

Platon007 добавил 28.11.2008 в 18:23

Прокси с авторизацией готова.

victim, уже сделал запрос авторизации ;)

Теперь надо собрать в кучу то, что есть:

- тИЦ, PR, количество проиндексированных страниц в обоих поисковиках... (БУДЕТ)

- прокси с авторизацией (БУДЕТ)

- сортировка по алфавиту и обратно, без сохранения, может быть с сохранением, но база данных будет другая или делать патч (БУДЕТ)

- загрузка популярности ключевиков (НЕ БУДЕТ)

Что забыл, comments are wellcome.

Platon007 добавил 27.11.2008 в 19:57

mr.mixer:
сделайте возможность поиска в Яндексе по регионам

Эта возможность реализована не будет ввиду отсутствия возможности в текущей архитектуре программы.

Всего: 344