- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
То не пускает обычных людей
такое возможно только если вы используете метод защиты для правил фильтрации Block
я его не использую ВООБЩЕ
только разные виды джава и капча проверок
тот кому нужен контент на сайте, захочет пройти или подождать несколько секунд проверок
кроме того, раз ее пройдя. потом пользователь работает с сайтом без дополнительных проверок Клауда
то позиции рушатся после его установки
это не из за клауда
клауд условно-коммерческий сервис
им защищаются многие солидные компании за ДЕНЬГИ
уж поверье, они не будут платить деньги за то, чтобы посещаемость их проектов проседала
Вам дело пишут, favicon тут вообще не при чем. Ищите характерные признаки и блочьте по useragent раз cloud не хотите - для начала забаньте ботов ahrefs и т.п. они дают нагрузку в разы превышающую пользовательскую.
Вот отличный список всего что нужно заблочить - делается как раз через htacess до клауда у меня стоял - проблем не было, можете свое добавить
https://perishablepress.com/7g-firewall/
Спасибо!
Давно всякие ahrefs в блоке на самом деле. В логах и статистике хостинга из роботов, помимо гугла и яндекса, был только VKRobot - тоже отправила в блок. Самые множественные запросы от:
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36
Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36
но понятия не имею, как таких ограничивать.
это не из за клауда
Я не спорю, что кто-то в восторге от этого сервиса. Но лично мне он не подходит
Я не хочу экспериментировать с клаудом, так как был плохой опыт на мелком сайте. Через htaccess тоже можно разрешить доступ Гугл и Яндекс ботам
Ну значит остается только один вариант - получить аналогичный опыт с htaccess.
Начните с определения того, с каких подсетей приходят самые многочисленные запросы. Как будет понимание, откуда нагрузка, можно будет смотреть что с этом делать.
Дело в том, что у меня и в статистике хостинга указано, что наибольший запрос идет именно к favicon:
Можно так попробовать. В шаблоне меняем название favicon.ico на любое другое, а уже потом в htaccess отдаём 403 favicon.ico
основная ваша проблема что вы статику отдаете апачем, он вообще не годится для этого
И это обсуждают на серьезных щах.
Начните с определения того, с каких подсетей приходят самые многочисленные запросы. Как будет понимание, откуда нагрузка, можно будет смотреть что с этом делать.
Да, уже заблочила самых назойливых
Можно так попробовать. В шаблоне меняем название favicon.ico на любое другое, а уже потом в htaccess отдаём 403 favicon.ico
Попробую, спасибо за наводку!