Ok, только там все в составе CMS на сайт.
Только обращается у меня программа не через XML, а через стандартную страницу выдачи результатов. Т.е. парсит html и все.
IP я регистрировал, тогда получается, что можно?
Да и еще очень интересует, существуют ли такие баны в других поисковиках (Google, Rambler, Mail)?
В общем сделал полуавтомат, програ просто получает 50 позиций, ищет свой сайт, далее нажимаем кнопку и след. 50 позиций, так думаю бана не будет =)
А не знаешь по точнее где почитать можно?
И если я задержку в 10 секунд сделал перед каждым, переходом нормально?
Еще он мне где то после 100 позиции пишет Abort trap (no core dumped) (((
Не всегда правда выдает такое
В общем практически написал я свой анализатор, правда без xml, т.к. там ограничения, а просто парсинг результатов. В связи с этим хотел спросить - может ли поисковик поставить бан моему сайту, из за того, что он слишком часто запрашивает результаты поиска?
Всем остальным, спасибо за ответы!!!
С чего ты взял, что я не знаю как распарсить страницы? Видишь, оказывается есть XML. Это же проще и правильнее, чем страницу парсить!
Все понятно, всем большое спасибо!
Я просто CMS пишу, и хотел в нее включить опцию определения позиции сайта в поисковиках. Так что меня интересует технический аспект вопроса, я примерно представляю как это можно сделать, но думал может какие варианты есть для этого, или сервисы специальные у поисковиков, мало ли...