В последнее время вылетает несколько раз за день - Достигнут предел ресурсов процессора для вашего сайта. Увидел большое количество запросов к файлу index.php. Основная нагрузку во время превышения от проксирующих ботов YandexBot и AppleWebKit. Решил прописать в robots.txt:
User-agent: YandexBot
Crawl-delay: 2.0
User-agent: AppleWebKit
В связи с этим несколько вопросов:
1. Правильно ли я прописал директиву Crawl-delay?
2. Это поможет снизить нагрузку на хостинг или лучше взять +1 CPU на услугу?
3. Не скажется ли это негативно на индексации сайта или ранжировании?
1. Да, правильно.
2. Это поможет снизить нагрузку на хостинг, но может быть недостаточно, если нагрузка будет продолжаться. В этом случае лучше добавить дополнительные ресурсы.
3. Нет, не скажется. Поисковые системы уважают директивы, указанные в robots.txt.
Ответил ИИ chatGPT ))
Вот что ответил chatGPT на мой вопрос:
Поддерживаю, у меня тоже рекламы меньше стало. У меня автор статей с фамилией украинской, но русская в десятом поколении, гражданка РФ, прописана в Москве. Это надо фамилии авторов менять на русские или как?
Че за бред вы пишите? Вы думаете работники в РСЯ в ручную смотрят сайты в поисках фамилий?)) У меня сайт СМИ и там постоянно пишется про Украину, Зеленского и т.д. Меня тоже под гребенку надо ловить?))
Если акк российский, то новые сайты не получится добавить.
спасибо, понял