- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кто-нибудь замечал что с 22 мая YandexBot взбесился? У меня на всех сайтах приблизительно одинаковая картина. Каждую секунду ломиться яндексбот. Пришлось даже через вебмастера скорость обхода снизить до минимума, так как бот сильно грузит процессор на хостинге.
Добрый день!
Кто-нибудь замечал что с 22 мая YandexBot взбесился? У меня на всех сайтах приблизительно одинаковая картина. Каждую секунду ломиться яндексбот. Пришлось даже через вебмастера скорость обхода снизить до минимума, так как бот сильно грузит процессор на хостинге.
яндекс бот сайты лагает, а потом пишет, ваш сайт слишком долго отвечает роботу?)
Добрый день!
Кто-нибудь замечал что с 22 мая YandexBot взбесился? У меня на всех сайтах приблизительно одинаковая картина. Каждую секунду ломиться яндексбот. Пришлось даже через вебмастера скорость обхода снизить до минимума, так как бот сильно грузит процессор на хостинге.
Пару раз хост выдавал 500-ю ошибку. Всплеск был посещения яндексовского бота.
Задайте скорость обхода в ВМ
Это, к сожалению, не помогает от «повышенного внимания» Яндекса...
У меня в апреле такое было, ровно месяц назад:
Пришлось временно просить CloudFlare спасти несколько моих сайтов от назойливых роботов.
Вам единственно верный совет дали - это не боты назойливые, а сайты не правильно сделанные.
Это же не логично. Каждый владелец сайта наоборот должен хотеть на каждый свой сайт тысячи-миллионы посетителей в день. А если вместо яндекса придут "они", заветные посетители? Закроете сайт, чтоб не грузило вам там процессор?
Вам единственно верный совет дали - это не боты назойливые, а сайты не правильно сделанные.
Это же не логично. Каждый владелец сайта наоборот должен хотеть на каждый свой сайт тысячи-миллионы посетителей в день. А если вместо яндекса придут "они", заветные посетители? Закроете сайт, чтоб не грузило вам там процессор?
Я уже смотрел сайт, там просто всё в хостинг бегет упирается и в его лимиты. Сайт простеший на WP, про кэширование не нужно ничего говорить, оно в случаи с поисковыми ботами не поможет.
Вам единственно верный совет дали - это не боты назойливые, а сайты не правильно сделанные.
Это же не логично. Каждый владелец сайта наоборот должен хотеть на каждый свой сайт тысячи-миллионы посетителей в день. А если вместо яндекса придут "они", заветные посетители? Закроете сайт, чтоб не грузило вам там процессор?
Мне больше интересовало не почему нагрузка создается на сайте (это и так было понятно), а почему яндекс.бот с 22 мая начал усердно атаковать сайты (у меня их пару штук). Думал тут найду объяснение этому феномену. До этого по пол года все шло ровно.
P.S Такие всплески активности бота замечаю периодически в промежутки от 3-6 месяцев. То есть 3-6 месяцев идет норм обход бота, а потом на неделю-две бот становится агрессивным 😀
P.S.S Скорость обхода в ВМ стоит минимум (0.6 запросов в секунду.)
У меня на днях было нашествие гугла, оказалось после правок появились дубли.
Проверьте, какие страницы сканировал бот.
У меня на днях было нашествие гугла, оказалось после правок появились дубли.
Сканирует все существующие страницы по 100 раз. То есть на одну и туже страницу может заходить по 100-200 раз.