- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ребята, просто берите нормальный хостинг где таких проблем нет by design.
Вообще-то вопрос стоит как "Ограничение скорости ПАУКАМ!?", на любом хостинге! Там где таких проблем нет, просто этот вопрос уже решили. У многих есть свои сервера на чужих площадках, у некоторых даже свои площадки. Так что хотелось бы вмести найти оптимальное решение проблемы, а не получать бесполезные ответы!:(
Вообще-то вопрос стоит как "Ограничение скорости ПАУКАМ!?", на любом хостинге! Там где таких проблем нет, просто этот вопрос уже решили. У многих есть свои сервера на чужих площадках, у некоторых даже свои площадки. Так что хотелось бы вмести найти оптимальное решение проблемы, а не получать бесполезные ответы!:(
Ну можно написать правила для каждого паука но это очень муторно плюс они часто меняются. Наверное более правильно прописывать robots.txt и для гугля сделать карту сайта чтобы он лазил только на определенные страницы как наибольший потребитель трафика.
Ну можно написать правила для каждого паука но это очень муторно плюс они часто меняются. Наверное более правильно прописывать robots.txt и для гугля сделать карту сайта чтобы он лазил только на определенные страницы как наибольший потребитель трафика.
Это хороший вариант, но Гугля как то правила robots.txt не всегда соблюдает + карта у меня есть, но он её хавает тоже не понятно по какому расписанию!:(
Относительно просто можно ограничить потребление трафика от ботов Yahoo и MSN (Slurp и msnbot соответственно) при помощи директивы Crawl-delay в robots.txt.
Если роботы Гугля много едят на сайте, то стоит посмотреть, что именно они едят. Очень может быть, что всякий мусор, вроде страниц с сессиями или страниц для печати, тогда эти страницы надо просто запретить индексировать. Если же сильно большая нагрузка, то в помощи рекомендуется с ними связаться:
Свяжитесь с нами. Укажите URL своего сайта и подробно опишите проблему. Также приложите фрагмент веб-журнала, где зарегистрировано обращение поискового робота Google, чтобы мы могли быстро выявить проблему.