seoBB, причины разные. Это может быть сделано для "естественности" ссылок. Для надежды на трафик (имхо в 90% несбыточные мечты). Для нароста ссылочного (рулит). Для тИЦ уже не рулит (но если данный блог на ЖЖ описан в ЯК-рулит очень даже)... Биржами с ЖЖ и прочих блогов ссылки не продаются. Возможностей нет...
А вообще у народа надо спрашивать.
Surok97, да вы гляньте на время от просьб до появления ТС. Одно радует - есть обещания выложить хоть какой-то отчет.
Судя по всему, если человек еще работает - все более или менее нормально. Но буржунет это сложно и время нужно...
kirill2009, Как ни странно он бывает еще и обрушивается после этого. Не в 0, но просесть может.
MasterOttisk, грустно. А ведь тема была перспективной...
Сайтик залетел и не вылетел. Радует. А по остальным - странички прибавились.
Все глухо или может есть какая информация? Просто было бы дико любопытно, чем же все закончилось.
Tvolod, хороший вопрос. Самое оптимальное это введение кодового слова в список ключевых слов ^_^ а так... вот перебором и искать....
Пока еще не понял что за ап... Один сайт вроде влетел в индекс, но сегодня смотрю - нету его. Сайт хороший, уник...
Hack_phoenix, CRONа нету. Поэтому он исключается.
Andreyka, угу. Причем очень офигительный ужастик (последствия удручают).
Himiko, да есть подозрения на сапу. Посмотрим что скажет ТП сегодня, обещали присмотреть.
TO ALL:
Может кому поможет. Выставил Crawl-delay на 2 для Яшки и на 4 для остальных ботов. Нагрузка в обычные часы упала примерно в 2 раза (иногда с 60 до 5%). Как будут известны данные про 9 часов - отпишусь.
dfase добавил 18.08.2009 в 13:12
Вобщем походу таки сапа+поисковые боты. Кроул спас.
Всем большое спасибо, если что взял на заметку что требовать и что трясти с хостера.
Dreammaker, попробую. А то апач вежливо завернули.
У меня такой вопрос: если в роботе прописать:
User-agent: Yandex
Crawl-delay: 2
User-agent: *
Или нужно еще что-то? Хочу снизить поисковую нагрузку от ботов.