Crawl-delay: как рассчитывается время

kazi_mir
На сайте с 08.09.2010
Offline
39
8357

Подскажите, как правильно ставить время (рассчитать) в директиве файла robots.txt?

От чего оно зависит и какие параметры нужно ставить, например, для сайта с количеством страниц 50-100 и какие параметры нужны для большого интернет-магазина в 100 тыс. страниц?

Не могу нигде найти эту информацию, а очень интересно.

M
На сайте с 16.11.2010
Offline
47
#1

тоже не могу ничего найти((

S
На сайте с 28.10.2005
Offline
296
#2

Все зависит от создаваемой ботами нагрузки, если сервер справляется, то Crawl-delay не нужен

8
На сайте с 28.04.2011
Offline
9
#3

Да не парься брат. Гоша прекрасно индексирует и без robots.txt.

Никаких параметров не нужно. - Только хуже сделаешь, поверь.

kazi_mir
На сайте с 08.09.2010
Offline
39
#4

А когда, все-таки, нужно ставить 0,5 и когда 10? Не могу этого понять, 10 - это много или мало? Или 0,5 - аналогичный вопрос.

И если, например, сервер не справляется, то сколько когда ставить?

Mr.Smile
На сайте с 10.01.2011
Offline
65
#5

В Crawl-delay указывается минимальное время (секунды) между концом скачивания одной страницы и началом скачивания следующей.

Допустим если Crawl-delay: 10, то после того как робот скачает одну и начнёт качать другую должно пройти не меньше 10 секунд.

Яндекс поддерживает Crawl-delay: от 0.1 до 1000.

Для небольших сайтов можно Crawl-delay не писать или писать минимальное значение. Для слишком больших можно написать 5 (к примеру). Всё это приблизительно.

Лично я пишу Crawl-delay: 10 для всех ПС (неприоритетных), кроме Яндекса и Гугла.

<--TTT-->
kazi_mir
На сайте с 08.09.2010
Offline
39
#6

А сколько, если директива не прописывается, идет время задержки? Как понимаю, ее нет?

И еще вопрос - не уйдет ли робот раньше, чем обойдет все страницы, если промежуток стоит большое?

Mr.Smile
На сайте с 10.01.2011
Offline
65
#7
kazi_mir:
А сколько, если директива не прописывается, идет время задержки? Как понимаю, ее нет?

Ну почему нет, есть. Если не прописано, то действуют по умолчанию. А какое время по умолчанию точно сказать не могу.

kazi_mir:
И еще вопрос - не уйдет ли робот раньше, чем обойдет все страницы, если промежуток стоит большое?

Это уж от робота зависит!

P.S. - Директива crawl-delay больше актуальна для быстроиндексируемых ресурсов, там где роботы живут.

nezabor
На сайте с 19.07.2010
Offline
152
#8

Честно говоря тестил я эту приблуду никак не помогала, сервер возвращал время от времени 403, помогло только поставить ngnix на сервер и проблема вроде исчезла

nezabor добавил 05.05.2011 в 21:41

да и вроде гугля вообще этот параметр не засчитывает

Чудес не бывает...
Mr.Smile
На сайте с 10.01.2011
Offline
65
#9
nezabor:
Честно говоря тестил я эту приблуду никак не помогала, сервер возвращал время от времени 403, помогло только поставить ngnix на сервер и проблема вроде исчезла

Crawl-delay помогает снизить нагрузку вызываемую поисковыми роботами, а не человеками....

nezabor:
да и вроде гугля вообще этот параметр не засчитывает

Всё он засчитывает. Насколько мне известно crawl-delay понимают все известные ПС.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий