"Ddos" от Яндекса и Crawl delay

innov
На сайте с 12.07.2007
Offline
100
1337

5 июня, в пятницу в районе 14.00 наш сервер на базе HP Proliant (конфига выше средней, не топ) с региональным СМИ на борту (~100.000 страниц в индексе, до 25000 хостов в сутки, Я.Новости, G.News и пр.) завис.

Причина - огромное количество обращений и загрузок (в основном, изображений) с подсетей, принадлежащих Яндексу.

Пофиксили оперативно, вовремя вспомнив про директиву Crawl Delay для robots.

За мою практику (около 5 лет) подобное случается впервые. Раньше Crawl Delay я не использовал никогда (пинайте, но не по почкам - их всего 2). Прочитал мануал и то нехитрое что нашел.

Понял, что Crawl Delay использовать можно, можно дробное, неясным осталось:

1. Какое максимальное значение можно использовать без вреда для индексации Яндексом (сейчас стоит 0.1 и это значения Платоны считают безопасным, переписку вел лично).

2. Можно ли писать данное правило в robots со *, т.е. для всех поисковых систем.

P.S. Тем же вечером рандомно пинговал другие сайты региональных СМИ - не работали многие (причина неизвестна, возможно совпадение).

Может... пора попробовать торговать на Forex? (http://alpari.ru/?partner_id=1230048) Размещение Ваших статей и новостей в СМИ (/ru/forum/659375) Настоящий (Одна штука) Белый Каталог сайтов по Москве и Нижнему Новгороду (/ru/forum/comment/14415061)
Artisan
На сайте с 04.03.2005
Offline
353
#1
innov:
1. Какое максимальное значение можно использовать без вреда для индексации Яндексом (сейчас стоит 0.1 и это значения Платоны считают безопасным, переписку вел лично).
2. Можно ли писать данное правило в robots со *, т.е. для всех поисковых систем.

1. Разделите желаемую периодичность для полной

индексации на желаемое количество страниц в поиске.

2. Можно.

www.leak.info / ДАРОМ линки конкурентов и забытых доменов
innov
На сайте с 12.07.2007
Offline
100
#2
Artisan:
1. Разделите желаемую периодичность для полной
индексации на желаемое количество страниц в поиске.

Вряд ли Ваша логика верна.

Artisan:

2. Можно.

Есть ли данные о то, какое значение переменной считается нормальным для Google?

Яндекс:

С нашей стороны не предусмотрено строгих указаний по этому поводу, значение директивы зависит, прежде всего, от производительности Вашего сервера. Мы считаем "нормальным" значение "Crawl-delay: 1": при запросе 1 страницы в секунду проблем с индексированием сайта возникать не должно.
zekana911
На сайте с 19.11.2012
Offline
80
#3

Поддержу разговор, так как тема очень актуальна, хостеры Reg.ru хостинг макимальный unlim, пишут что сайт дает нагрузку и уходит в сон, ссылаются на бота яши, поставил

Crawl-delay: 86000

innov
На сайте с 12.07.2007
Offline
100
#4
zekana911:
Поддержу разговор, так как тема очень актуальна, хостеры Reg.ru хостинг макимальный unlim, пишут что сайт дает нагрузку и уходит в сон, ссылаются на бота яши, поставил
Crawl-delay: 86000

Исправьте!

Это все равно работать не будет.

Ставьте:

Crawl-delay: 1

Этого вполне достаточно.

innov
На сайте с 12.07.2007
Offline
100
#5

Что, больше никого данный вопрос не заинтересовал?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий