- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
В общем, ругается на get-параметр __cf_chl_tk
А без CF такого не было? Какая CMS?
В общем, ругается на get-параметр __cf_chl_tk
Надо в robots.txt написать в конце файла после всех Disallow:
User-agent: Yandex
Clean-param: __cf_chl_tk
На скриншоте.
User-agent: Yandex
Clean-param: __cf_chl_tk
О, спасибо за данное решение. У меня было немного по-другому. К универсальному селектору * были прописаны Clean-param: utm_source&utm_medium&utm_campaign&utm_content&utm_term&ysclid&__cf_chl_tk. Может из-за этого Яндекс не понимал.
Надо каждый Clean-param писать с новой строки.
Надо каждый Clean-param писать с новой строки.
Вы делали настройку по статье vc?
Для правила с проверкой пустого реферера поставьте Managed Challenge, за место JS.
И отключите правило с проверкой IPV6, там большая часть нормальных юзеров попадает под проверку и проходят ее, поэтому и внутренние переходы растут.
Здравствуйте, приложил настройки CF по вашим рекомендациям, можете посмотреть , я все учел?
Здравствуйте, приложил настройки CF по вашим рекомендациям, можете посмотреть , я все учел?
Нужно заходы с IPV6 полностью отключать в CF, как это сделать написано пару страниц назад. Если конечно сам хостинг не поддерживает IPV6.
Я бы рекомендовал правило с HTTP<2 полностью блокировать. Там один мусор, но это на ваше усмотрение.
А чтобы избавиться от других ботов, нужно смотреть вебвизор и логи сайта - и блокировать ботов выборочно. Ну и битерику AS35048 можно заблокировать.
P.S. Многие советуют ставить капчу на ВСЕ прямые заходы, но я вот данного правило не придерживаюсь, потому что под капчу попадут и нормальные пользователи.
Здравствуйте, приложил настройки CF по вашим рекомендациям, можете посмотреть , я все учел?
Я IPv6 не трогал. С него идут нормальные пользователи и заявки, проверял. Наверное можно их отключить, тогда вместо v6 пойдут v4, но в своем случае не вижу смысла т.к 95% визитов идут с ipv4.
В правиле где проверка на прямого реферера оставил только его. Проверку на HTTP убрал. Проверку на вхождение utm перенес в отдельное правило, где сразу блокировка.
Еще (как вам уже посоветовали) создайте отдельное правило для блокировки. Оно пойдет сразу после Good Bots. Туда добавьте всю сеть битерики по AS num и спам визиты с UTM.
Так же в процессе настройки смотрите какие боты обходят все проверки и блокируйте их по AS вместе с проверкой на пустого реферера.