Я бы дополнительно заблокировал страницы для посещения или всем или чисто сети Яндекса через .htaccess или Cloudflare. Ниже пример Cloudflare.
Вот как для всех: (http.request.uri contains ".html?mr:referralID") or (http.request.uri contains ".html?tag=aff") or (http.request.uri contains ".html?Selected") or (http.request.uri contains ".html?authToke")
Это только пример. AS сеть яндекса: 13238
Проверьте что нужные страницы под это правило не попадают. Примерно так я запрещал Я.ботам посещать то что им не нужно.
Для локализации перевода плагина WP User Frontend:
Некоторые остаются не переведенными. К примеру, Strength indicator в файлах wp-user-frontend-ru_RU.po и wp-user-frontend-ru_RU.mo переведена, но на сайте так и отображается на английском.
В нескольких файлах плагина строка, вроде всё правильно:
<?php esc_html_e( 'Strength indicator', 'wp-user-frontend' ); ?>
1. Возможно есть кэширование на сайте и нужно просто сбросить кэш.2. Если дело не в этом, то скорее всего строчка Strength indicator выводится не через .po файл, а через код в самой странице по типу что вы скинули выше. Тогда замените там строчку и проверьте.
Как вариант Вы можете скачать папку с плагином на ПК, открыть через Notepad++ и выполнить поиск Strength indicator по всем файлам, блокнот покажет все файлы где есть совпадение, ну и там везде замените. И загрузите обратно на сайт. Этот вариант поможет в 99% случаев.
Да. Можете со своим айпи сначала попробовать работу правила , если все норм - сделать для всех.
Опять пошли боты. Как у Вас?
Много из сети Майкрасофта. Что это такое?
Скорее всего это боты ChatGPT - смотрите User Agent. Они бывают наплывом идут. Нужно блочить по User Agent.Вот пример: Сеть AS8075 MICROSOFT-CORP-MSN-AS-BLOCKUser agent - Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko); compatible; ChatGPT-User/1.0; +https://openai.com/bot
Для более точного ответа, сообщите несколько IP адресов.
Зачем в два, если в одно с "не содержит" работает?
Если работает с одним, то пусть использует с одним. Человек написал что все заходы стали внутренними, без скриншотов проблемы. Поэтому я предложил такое решение.
у всех с доходом всё нормально? чет никто не ноет. наладилось? черная пятница на носу, а доход не видно чтобы прям рос, яша забирает все бабки себе?
Так а что это меняет? Нас доят, мы крепчаем. Давно все пробивные ушли в бурж.
После того как в WAP добавил правило (http.referer eq "") or (not ssl) or (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (not http.referer contains "ya.ru") or (not http.referer contains "yandex") or (not http.referer contains "google") or (not http.referer contains "bing") с action Managed Challenge, то весь траффик из поисковиков стал значиться как прямые заходы. Это и в Яндексе и в Google и в Liveinternet. Т.е. теперь по мнению поисковиков, у меня нет органического поискового траффика, а это очень плохо для SEO.
Понятно, что можно полностью удалить всю эту конструкцию и все вернется назад. Но может можно как-то по другому прописать, чтобы и ботов не пускать и статистику не портить?
Вы хотите заблокать / дать капчу все referer кроме поисковых? Это делается в два правила:
1. Пропускаем всех кто содержит (http.referer contains "ya.ru") or (http.referer contains "yandex") or (http.referer contains "google") or (http.referer contains "bing") or (http.referer contains "ваш-сайт.ру") для более точного вхождение можно собрать yandex.kz, ru. com и также с другими ПС. Важно добавить Ваш сайт в пропуск referer или по hostname.
2. А вторым правилом блочите или выдаете капчу остальным доменным зонам типо .ru .com .io и так далее (собираете базу фейк переходов URL и фильтруете зоны, если я правильно понял, что вы хотите прикрыть фейк переходы с сайтов): (http.referer contains ".ru") or (http.referer contains ".com") or (http.referer contains ".io")
Можете нулевым правилом сделать блокировку протоколов что у Вас есть. В таком случае все должно работать и блокировать мусор. Там думаю самостоятельно сделаете принцип. Если не это хотели, тогда сообщите подробно какая задача и что Вы хотите от правила.
Вы здесь все еще с ботами боретесь? У меня на это ушло примерно месяц. Переблочил сетки напрямую на сервере - проблемы больше нет. Идут единичные живые бакланы.
Если ваши сайты в РФ - где будут их айпихи на CF? + прыгающие капчи и проверки браузеров - для ИМагазинов такая жесть неприемлима.
Для сайтиков, обвешенных дешевой рекламой - CF самое то, хотя не уверен.
Возможно ошибаюсь ..
У Вас трафика на сайте 50 человек в день, Вам самому не смешно? Я бы посмотрел как Вы при трафике в 90к в сутки разбирались в логах и банили подсети, т.к кроме этого вы ничего и не делаете в плане защиты.
В клауде изучать логи легко и просто. Зачем Вы пишите и даете советы, а потом пишите "возможно ошибаюсь".. Для любого магазина капчи неприемлемы, потому что это потенциальная потеря клиента. А Вы уверены что потенциальный клиент у Вас не заблокирован? Может быть сорвалась хорошая покупка. Вот и дело в том что Вы то уверены то не уверены.
Раньше было понятно. Клик с США стоил к примеру 2 дол. И за этот счёт я что то зарабатывал при том что просмотров с этой страны не особо много. Другие страны платят центы.
А теперь как считать будут ? Всё суммировать или для каждой страны тысяча просмотров будет иметь свою цену ?
Так же реклама рекламе рознь. Переход по одной рекламе к примеру Германия стоит 1,5 дол, а по другой, с той же страны 0,5 дол. Тоже будет что то усреднённое ?
Встретимся в январе и обменяемся ценой на 1к просмотров по странам, все станет ясно.