Как ограничить работу поиского робота?

Q
На сайте с 01.04.2006
Offline
143
498

Сайт очень большой. Иногда на сайт заходят поисковые роботы и начинают индексировать сайт целиком, что приводит к перегрузке сервера.

Как ограничить работу поиского работа? Может в robots.txt что-то нужно прописать? Например разрешить индексировать не более 100-500 страниц за один раз?

K
На сайте с 31.01.2001
Offline
737
#1

querty, обратите внимание, что в этом разделе есть FAQ со ссылками на описания, что можно написать интересного в robots.txt.

Ищите про Crawl-Delay .

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
Q
На сайте с 01.04.2006
Offline
143
#2

Спасиб. А у Яндекса и гугла по умолчанию какое значение? Не могу найти

K
На сайте с 31.01.2001
Offline
737
#3

По умолчанию никаких ограничений нет, как захочет робот, так и будет.

S
На сайте с 28.10.2005
Offline
319
#4

Гугл с прибором ложил на Crawl-Delay, в вебмастере ползунок есть

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий