Я думаю такими прогами участники форума пользуются постоянно.
Я тоже себе такую написал, только на макро скриптах в среде Macrohtml.
Можно и на Perl... Даже думаю лучше всего.
Да кстати толк от твоей проги будет минимален, если ты её серьезно не доработаешь...
Совершенно согласен, этим поисковики защищают себя от дорвеев. Но с другой стороны, все новые сайты имеют низкий PageRank, но они дожны быть проиндексированы
в первую очередь. Иначе база поисковика будет устаревшей. Вот и смотрит робот на
домен первого уровня, если не знает его, то считает что сайт новый и поэтому его нужно проиндексировать.
Или есть другое объяснение этому явлению:
если ваша страница имеет высокий ранг, то значит на нее ссылается много страниц... А роботы проходя по этим страницам, заходят и на вашу страницу.
Видимо тут и есть проблема, какие то сервера забаннены, какие то нет. А вот как узнать это? Да и поисковики сейчас не справляются с объемом новых ссылок, поэтому выбирают из списка новые домены первого уровня.
Может кто нибудь посоветует адалт фри-хост который нормально индексируют.
Да, но поисковики ужасно спамят с фри-хостов, поэтому они часто находятся в черном списке.
Я вот например зарегил сайт с фри сайта http://www.sexycyberwebsites.com уже прошло три месяца, а он нигде не появился.
А как узнать о посещении робота поисковой системы? По IP адресу или есть сервисы для этого.
Спасибо за ответы. Но вот с нашими поисковиками все понятно, а вот с английскими не очень. Google может и быстро индексирует... Но домены первого уровня.
А фри хосты и прочее можно долго ждать... Мне бы хотелось узнать поисковики которые гарантировано индексировали, например в течении месяца.