Поисковые роботы

T
На сайте с 07.10.2014
Offline
16
568

Всем привет! Последние пару дней, наблюдаю странную ситуацию, ночью происходит отключение сайта и выдаёт ошибку 500, метрика шлёт сообщения о недоступности, обратился к хостингу, за помощью, говорят наблюдаем активность поисковых роботов, мол сайт не выдерживает нагрузку, [ATTACH]147378[/ATTACH]

[ATTACH]147379[/ATTACH]

На вопрос что делать, для исправления написали следующее:

добавьте в robots.txt следующее:

User-agent *

Crawl-delay 60

Это установит интервал между запросами 60 секунд.

Прошу помогите разобраться, если просто вставить это в пустой файл роботс, думаю ничего не изменится, блог работает на WP, и данный файл не создавался, тк регулируется всё плагином "Yoast SEO" подскажите выход из ситуации.

Спасибо.

png 147378.png
png 147379.png
vimpel77
На сайте с 27.03.2012
Offline
141
#1

плагин заменяет robots.txt???

Стратегические просчеты невозможно компенсировать тактическими успехами
T
На сайте с 07.10.2014
Offline
16
#2
vimpel77:
плагин заменяет robots.txt???

в настройка плагина, я указываю какие страницы и вложения/архивы доступны для индексирования, а какие нет.

IBakalov
На сайте с 05.10.2011
Offline
218
#3

Поменять хостинг.

L
На сайте с 30.10.2015
Offline
34
#4

у меня роботы сканируют сайт по 5 запросов в секунду, все в норме. попробуй кеширование на стороне сервера сделать и cdn для статики использовать. если вставить код, который тебе посоветовали, он действительно замедлит индексацию твоего сайта поисковыми роботами

...
T
На сайте с 07.10.2014
Offline
16
#5
levchernenko:
у меня роботы сканируют сайт по 5 запросов в секунду, все в норме. попробуй кеширование на стороне сервера сделать и cdn для статики использовать. если вставить код, который тебе посоветовали, он действительно замедлит индексацию твоего сайта поисковыми роботами

по сути, я понимаю так, движок сайта должен терпеть от роботов, скорее всего это косяк с хостингом/сервером, потому как не может этого быть, а если на сайте будут 500+ в сутки и роботы, не думаю что это проблема с WP, скорее всего ошибка на стороне провайдера, если изначально сайт не выдерживает большие нагрузки то зачем его создавать, а по поводу индексации роботами - зачем уменьшать, пусть даже если это быстробот, пусть все странички кушает, скорее всего человек сказал правильно: менять хостера...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий