- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Проблема:
есть vps приличное мощности, есть десяток сайтов, на сайтах в среднем по 2000-3000 страниц. Приходит на эти сайты одновременно 3-4 поисковых бота и каждый из них делает 3-4 запроса в секунду. В итоге vps'ка не справляется с нагрузкой, ведь кроме этих ботов надо и клиентов обслуживать.
Как вообще с этим справляются на shared хостингах где на одном сервере по 1000 сайтов и больше? Всётаки ограничивают им скорость?
crawl-delay
Не помогает, тот же гугл не учитывает crawl-delay для внутренних страниц, остальные боты тоже кладут на crawl-delay. Ahrefs, sape, все игнорируют...
access.log покажите если есть возможность.
бешеные и не адекватные это bingbot msnbot, помню пристали к клиенту и роняли его впс причем настойчиво с разных ип( ну а с остальными не когда прооблем не видел.
зы шаред хостинг намного мощнее дешевый впс поэтому нет проблем.
да а что смотреть access.log я и сам вижу, что от одного бота 3-4 запроса. Сейчас вот Ahrefs долбит, до этого bingbot долбил. Когда оба приходят вообще вилы.
шаред то мощнее вдс, я понимаю, но на шареде сколько сайтов? в десятки и сотни раз больше вдс. Как шаред справляется с этим?
какая разница сколько сайтов, да и сайты бывают разные, некоторые спокойно 100 паралельных запросов на бэкенд переварят а другие при 10-20 сделают плохо серверу.
на шараде обычно есть некие лимиты что бы 1 юзер не забрал все ресурсы сервера, ботам будет отдаваться к примеру 503 а остальные сайты у соседей будут как то пытаться работать.
нет не каких секретов, рубите ботов в nginx если вы считаете их бесполезными или увеличивайте ресурсы сервера что бы он мог справится с таким потоком запросов.
это самое простое, еще можно посмотреть в сторону оптимизации скриптов, кэширование.
Den73, еще яндекс умеет бесится. Особенно на "очень красивых" сайтах ;)
Еще в том же nginx можно попробовать настроить модуль ngx_http_limit_req_module, с его помощью можно ограничивать кол-во запросов в секунду и или резать соединения или задерживать их. С помощью параметра burst можно настроить nginx так, чтобы он пропускал первый всплеск запросов, когда настоящий юзер заходит на сайт и качает остальные скрипты/цсс/картинки.