- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
5 июня, в пятницу в районе 14.00 наш сервер на базе HP Proliant (конфига выше средней, не топ) с региональным СМИ на борту (~100.000 страниц в индексе, до 25000 хостов в сутки, Я.Новости, G.News и пр.) завис.
Причина - огромное количество обращений и загрузок (в основном, изображений) с подсетей, принадлежащих Яндексу.
Пофиксили оперативно, вовремя вспомнив про директиву Crawl Delay для robots.
За мою практику (около 5 лет) подобное случается впервые. Раньше Crawl Delay я не использовал никогда (пинайте, но не по почкам - их всего 2). Прочитал мануал и то нехитрое что нашел.
Понял, что Crawl Delay использовать можно, можно дробное, неясным осталось:
1. Какое максимальное значение можно использовать без вреда для индексации Яндексом (сейчас стоит 0.1 и это значения Платоны считают безопасным, переписку вел лично).
2. Можно ли писать данное правило в robots со *, т.е. для всех поисковых систем.
P.S. Тем же вечером рандомно пинговал другие сайты региональных СМИ - не работали многие (причина неизвестна, возможно совпадение).
1. Какое максимальное значение можно использовать без вреда для индексации Яндексом (сейчас стоит 0.1 и это значения Платоны считают безопасным, переписку вел лично).
2. Можно ли писать данное правило в robots со *, т.е. для всех поисковых систем.
1. Разделите желаемую периодичность для полной
индексации на желаемое количество страниц в поиске.
2. Можно.
1. Разделите желаемую периодичность для полной
индексации на желаемое количество страниц в поиске.
Вряд ли Ваша логика верна.
2. Можно.
Есть ли данные о то, какое значение переменной считается нормальным для Google?
Яндекс:
Поддержу разговор, так как тема очень актуальна, хостеры Reg.ru хостинг макимальный unlim, пишут что сайт дает нагрузку и уходит в сон, ссылаются на бота яши, поставил
Crawl-delay: 86000
Поддержу разговор, так как тема очень актуальна, хостеры Reg.ru хостинг макимальный unlim, пишут что сайт дает нагрузку и уходит в сон, ссылаются на бота яши, поставил
Crawl-delay: 86000
Исправьте!
Это все равно работать не будет.
Ставьте:
Crawl-delay: 1
Этого вполне достаточно.
Что, больше никого данный вопрос не заинтересовал?