bingbot ложит сервер

Sower
На сайте с 30.12.2009
Offline
647
1738

На сервере несколько сайтов при генерации страниц используют большие базы данных. В общей сложности таких страниц на этих сайтах более миллиона. В панели вебмастера гугла (WMT) выставил не высокую скорость, и всё гуд.

Сейчас bingbot с ума сошёл. В секунду стал скачивать про несколько таких страниц с каждого такого сайта. Загрузка mysql на сервере держится порядка 50%, но бывают скачки до 90-100%. Уже раз слетала база, приходилось перезагружать.

Есть ли способ как-то умерить апетит бингботу? Полный запрет не подходит. Нужно именно снизить скорость индексации/переиндексации. Можно ли как-то реализовать подобное?

__________________Бесплатная накрутка ПФ: посещаемость, просмотры, переходы с поисковиков по ключевикам, итд.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Andreyka
На сайте с 19.02.2005
Offline
822
#1

Конечно есть. Например отдавать ему страницы через nginx медлееенооо.

Не стоит плодить сущности без необходимости
LEOnidUKG
На сайте с 25.11.2006
Offline
1723
#2

Crawl-Delay не помогает?

✅ Мой Телеграм канал по SEO, оптимизации сайтов и серверов: https://t.me/leonidukgLIVE ✅ Качественное и рабочее размещение SEO статей СНГ и Бурж: https://getmanylinks.ru/
Sower
На сайте с 30.12.2009
Offline
647
#3
LEOnidUKG:
Crawl-Delay не помогает?

А это что за штука? Где она и как работает?

LEOnidUKG
На сайте с 25.11.2006
Offline
1723
#4

http://ru.wikipedia.org/wiki/Стандарт_исключений_для_роботов

Crawl-delay: устанавливает время, которое робот должен выдерживать между загрузкой страниц. Если робот будет загружать страницы слишком часто, это может создать излишнюю нагрузку на сервер. Впрочем, современные поисковые машины по умолчанию задают достаточную задержку в 1-2 секунды.

User-agent: *

Crawl-delay: 10

Sower
На сайте с 30.12.2009
Offline
647
#5
LEOnidUKG:

Crawl-delay: устанавливает время, которое робот должен выдерживать между загрузкой страниц.

User-agent: *
Crawl-delay: 10

Спасибо, попробую.

neznaika
На сайте с 28.06.2006
Offline
356
#6

Что мешает поместить эти огромные выборки в кеш и отдавать их миллионами?

Дорого покупаю настоящие сайты. Не инвестирую деньги и не беру кредиты.
Sower
На сайте с 30.12.2009
Offline
647
#7

Кстати, попробовал такой вариант

Request-rate: 1/5

Visit-time: 0700-0200

Гугл пишет - Синтаксис не распознается.

И ещё... оказывается AhrefsBot вообще игнорирует robots.txt

neznaika:
Что мешает поместить эти огромные выборки в кеш и отдавать их миллионами?

У меня не доры-многостраничники а живые сайты с динамичным контентом.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий