- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
кто подскажет...
как в современных реалиях... можно ограничить число одновременных обращений в секунду индексирующего робота ПС Гугл к сайтам?
у индексирующего робота Гугл просто зашкаливающие аппетиты при доступе к сайтам... VDS на максимальном тарифе по CPU, и постоянно перегружен обращениями робота Гугл...
что можно предпринять?
а ошибку выдавать через nginx
429 Too Many Requests
не поможет?
а ошибку выдавать через nginx
429 Too Many Requests
не поможет?
В роботсе запрети.
Корневая папка, robots.txt, вставь внутрь.
В роботсе запрети.
это из книжки "Вредные советы"?
зачем лечить? ампутируем... 😁
можно ограничить число одновременных обращений в секунду индексирующего робота ПС Гугл к сайтам?
все что есть это вот https://developers.google.com/search/docs/crawling-indexing/reduce-crawl-rate?hl=ru
429 Too Many Requests
Для начала современный php поставь, а не 5.0 как у тебя.
Здравствуйте.
кто подскажет...
как в современных реалиях... можно ограничить число одновременных обращений в секунду индексирующего робота ПС Гугл к сайтам?
у индексирующего робота Гугл просто зашкаливающие аппетиты при доступе к сайтам... VDS на максимальном тарифе по CPU, и постоянно перегружен обращениями робота Гугл...
что можно предпринять?
Может клоудфлейр как модуль для движка сайта поставить? Или сами пишите в пхп чтобы напр обрабатывать запрос если юзер агент гугль бот напр раз в сек или менее.
что можно предпринять?
лечиться этим https://last-modified.com/
Нет никаких чрезмерных нагрузок на VDS от ботов ПС
Для начала современный php поставь, а не 5.0 как у тебя
Пофиг, что у тебя стоит. Все пашет без перегрузок.
Нет никаких чрезмерных нагрузок на VDS от ботов ПС
Еще как есть, можно спокойно слабенький сервер положить, если направить кучу мгновенных ботов через google indexing