Сервер не выдерживает поисковых ботов. Как "правильно" ограничить индексирование?

lwz
На сайте с 06.01.2008
Offline
50
lwz
611

Сабж... Думаю интерес не у меня одного...

one
На сайте с 15.04.2007
Offline
336
one
#1

Ну думаю закрыть в роботс от индекса все ненужное и смотреть... А лучше всего менять сервер и не париться...

Решения для автоматизации действий ( https://www.facebook.com/automationstudio20/ ) в интернете.
[Удален]
#2

Чаще всего грузит Яху. Так что

User Agent: Yahoo! Slurp

Disallow: /

Как вариант - поставить:

User Agent: *

Crawl Delay: 3000

SW
На сайте с 07.07.2008
Offline
14
#3

Что ж это за сервер такой... Мне б столько поисковых ботов :)

Новые фильмы без смс, файлообменников и рекламы на максимальной скорости! (http://dvdripvideo.ru/)
[Удален]
#4
SumyWeb:
Что ж это за сервер такой... Мне б столько поисковых ботов

Повторюсь, именно Yahoo! Slurp известен своими неумеренными аппетитами, которые могут действительно даже положить сервак.

_
На сайте с 24.07.2002
Offline
299
_Ad
#5

ну когда как.. вот яндекс повадился каждый день шерстить форум с мильоном постов.. статистика такую жесть показывает :)

G
На сайте с 20.06.2008
Offline
48
#6

lwz, если контент не сильно обновляется возможно настроить last modified.

Если бот гугла можно в вебмастер тулсах снизить скорость.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий