Отдача страниц поисковым роботам один раз в секунду

T
На сайте с 04.11.2008
Offline
56
663

Приветствую всех. Возник вопрос следующего плана.

Есть сайт, генерирующий при каждом показе страницы PHP+MySQL. Страниц на сайте десятки тысяч.

В дневное время он потребляет 5-10% ресурсов хостинга.

В ночное время, когда на него налетают поисковые роботы, загрузка может составлять 30-40%. В свете этого, хостинг рекомендует вписать в robots.txt следующее:

User-Agent: *

Crawl-Delay: 1

Эта директива означает отдачу страниц поисковым роботам один раз в секунду.

Насколько это критично для индексации?

Может ли это сказаться как-то отрицательно?

Сейчас большая часть аудитории сайта это именно поисковые запросы.

Просто думаю, либо вписать, что рекомендуют. Либо, если это критично все же, то менять хостинг. Что посоветуете?

[Удален]
#1
Tvman:

Сейчас большая часть аудитории сайта это именно поисковые запросы.

Странная какая-то аудитория.

а способы оптимизации работы с БД вышли из моды? :) Или у вас итак всё супер-оптимизировано? )

T
На сайте с 04.11.2008
Offline
56
#2

Спасибо за ответ. :) Над оптимизацией, конечно, думаю. Но не все так просто. Поэтому меня сейчас волнует именно поставленный вопрос.

neznaika
На сайте с 28.06.2006
Offline
356
#3

Эксперименты с ботами до добра не доводят.

http://ru2.php.net/memcache

Дорого покупаю настоящие сайты. Не инвестирую деньги и не беру кредиты.
T.R.O.N
На сайте с 18.05.2004
Offline
314
#4
Tvman:
Есть сайт, генерирующий при каждом показе страницы PHP+MySQL. Страниц на сайте десятки тысяч.
В дневное время он потребляет 5-10% ресурсов хостинга.

этоа загрузка при каком количестве запросов в секунду?????? (http запросов) Если мение 10к, то отбить руки программеру.

Tvman:
Эта директива означает отдачу страниц поисковым роботам один раз в секунду.

файл робтс является РЕКОМЕНДАЦИЕЙ а не правилом. Тем более, что очень небольшое количесвто роботов обращаются к этому файлу, а из тех кто обращается, большая часть читает только Disallow:

От воздержания пока никто не умер. Хотя никто и не родился! Prototype.js был написан теми, кто не знает JavaScript, для тех, кто не знает JavaScript (Richard Cornford)
T
На сайте с 04.11.2008
Offline
56
#5

Спасибо за ответы. Смысл понял - с роботом лучше не играться.

Я не замерял сколько именно http запросов идет в секунду. Однако в ограничение 20 одновременных запросов укладываюсь. Сам сайт на Seditio CMS, которая достаточно легкая и оптимизированная. Хуже дела обстоят с банерокрутилкой. Приходится использовать phpadsnew/openx. Кто заком с ней, тот знает что это за монстр. Замены к сожалению пока не нашел.

S
На сайте с 28.10.2005
Offline
318
#6
Tvman:

User-Agent: *
Crawl-Delay: 1

так оно правильней будет:


User-Agent: *
Disallow:
Crawl-Delay: 1

Боты, поддерживающие директиву Crawl-Delay, будут запрашивать страницы не чаще, чем по 1-й в секунду

greyhard
На сайте с 20.09.2008
Offline
35
#7
So1:
Странная какая-то аудитория.

а способы оптимизации работы с БД вышли из моды? :) Или у вас итак всё супер-оптимизировано? )

оптимизация вышла из моды, сейчас железо дешевле труда программиста ))) зачем оптимизировать ) проще купить еще 1 сервер, так то )

з.ы. ) конечно в разы приятнее видеть что на том же железе после оптимизации время выдачи страницы уменьшилось ) до сотых секунды.

йа бездельник
T
На сайте с 04.11.2008
Offline
56
#8

Размещение сервера сейчас на многих хостинг-площадках подорожало. Мест нет. Мастерхост и Стэк, например, подняли цены в этом году два раза. Такими темпами скоро оптимизация снова в моду войдет... ;)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий