vashfreelancer

vashfreelancer
Рейтинг
38
Регистрация
24.10.2023
Владелец крупных зарубежных сайтов с большим опытом администрирования. Не болит голова, выполняю услуги в срок. Обратились раз, обратитесь два.

"Это не должно отразиться на ваших доходах". Прочитал пять раз и не понял, скорее всего откажутся от дохода по кликам. Будет яндекс 2.0))
Будут крутить тарфик на бурж на просмотры) Поживем, увидим что будет.

olegon :
ааатюшки, толпа пользователей успевают сбежать с сайта меньше чем за секунду :)
Полез смотреть роботов, всего 160 штук за день. Копейки. А все остальные - пользо

РСЯ метрика для РСЯ, обычная метрика для Вас. Значения этих метрик разные, тут Роман (ТП яндекса) точнее подскажет в чем разница.

В РСЯ метрике отказы идут рекламные. Грубо говоря в обычное метрике у Вас может быть отказы 20% к примеру.

МПК выдается за неоригиналость и дубли (мб и из-за поддомена потянуть основной сайт). Клиенты улучшали свои сайты по подсказкам вебмастера и подали заявку на проверку, с них снимали МПК.
Кому то вообще просто выдали, они написали в ТП и им за неделю сняли. То есть может алгоритм чудить, тут на форуме про это есть ветка на 200 страниц если не ошибаюсь, изучите её и узнаете кто как снимал эту метку.

Cloudflare не глючный при правильной настройке. Вот если у Вас прямые заходы больше 20% то можете получить бан РСЯ, потом заниматься защитой поздно будет.

Kenguru111 #:

Увы, яндексу всё равно, писал не раз, и не только сюда: https://searchengines.guru/ru/forum/1028036/page344#comment_16953143

Конечно все равно. Им ГС с хорошим трафиком выгоднее чтобы были в выдаче. Как и на доход все равно, крутят же как хотят.

grafoman #:
Ну это же уже на стороне сайте после клауда происходит.

Происходит на сервере. Я не вижу Ваш сайт, так сложно что либо сказать. Был у меня клиент у которого по нажатию на логотип реферер сбрасывался и клауд как бы еще раз проверял.
Можете скинуть сайт в ЛС - посмотрю на наличие подобной проблемы.

iccup #:
и как результаты до и после? я имею ввиду до приобретения платной подписки?

У меня крупный сайт с большим количеством правил + разные варианты кэширования для разных страниц. Отдавать 20$ за красивую и удобную аналитику логов, двойное кэширование - мелочь.

Mik Foxi #:

забить ногами того разработчика, который сделал сайт, страницы которого надо кешировать в статику.

Не нужно бить, для моего проекта оптимизированная БД + кэширование от клауда (на их стороне) - лучшее решение.
И в случае недоступности сервера - все популярные страницы в кэше и я ничего не теряю. Доход не падает.

Rocket Loader замедляет сайт по показателями PageSpeed - вот - можете сами поискать эту проблему в инетрнете.

Использую кэширование клауда (картинки, скрипты, полностью страницы, но у меня про версия и там кэширование для телефона и пк разное), главное исключить админку из кэша..)


zveroangel #:
нашла в логах вот такую какаху  api.pfbaza.website 🤔

Обсуждалось это здесь. Блокируйте по referer. Зеркало этого сайта  gay-andrey.online (первый URL в РФ вроде блокнут). В любом случае это сайты для накрутки ПФ яндекса от PF Baza и кто нагуливает профили на Вашем сайте, делают это через iframe - потому referer спалился. А так вообще они подменяют referer на google.com.

grafoman #:

Почему после такого правила

(not ssl) or (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "") or (http.referer eq "-") or (not http.referer contains "google" and not http.referer contains "yandex" and not http.referer contains "ya.ru") or (http.request.uri contains "utm") or (http.request.uri contains "utm_source") or (ip.geoip.asnum in {49505 35048 206766 207713 52207 16509 23033 48061 14061 200197 14618 24940})


юзер переходит с поисковика без проверки, а при переходе на сайте на любую следующую страницу ему выдается капча или проверка?

Ваше ПО сервера настроено видимо неверно, и при переходе между страницами сайта, referer теряется - то есть он пустой (а должен быть адрес страницы). Проверить это можно через консоль разработчика - введя в консоль document.referrer Это только предположение. А вообще еще можете удалить  (http.referer eq "-")  не может быть такого referer по идее. Я не использую такое правило.

Andrew666 #:

Сделал, но 403 не пропала. Что странно, любая сторонняя проверка ответа сервера типа кулакова показывает 403, а тот же пейджспид получает 200

Нужно видеть все правила и их порядок. Для Cloudflare важен порядок правил. Мб вы добавил пропуск в самый низ, а правило выше блокирует его.
Добавьте правило SKIP в самый вверх и выберите галочку: WAF components to skip - All remaining custom rules

Biomusor #:

Подскажи, я чего то не понял. Добавил в первое правило, где пропуск ботов Skip, User агента VK. Долго тестил, ничего не подсасывало в ВК, но потом поставил "Не равно" (does not equal) и указал полного агента вк шаред и все стало работать. Как так? почему не работает при содержит  vkShare или равно с полным указанием юзер агента  Mozilla/5.0 (compatible; vkShare; +http://vk.com/dev/Share)????


Значит используется другой User Agent. Попробуйте в вк выложить ссылку на сайт и в разделе Events посмотрите сразу последние обращение, там что то будет типо VK или другой бот - его в исключение. Может там будет AS сеть ВК, нужно видеть просто. А решение что Вы сделали выше пропускает все подряд, кроме Вашего User Agent`а.


Andrew666 #:
Всем привет. Подскажите, клауд гуглоботу отдает 403, как это настраивается?

Сделать правило SKIP с  (cf.client.bot)  - по мнению клауда хороших ботов будет пропускать (ПС Яндекс, гугл, всякие разные сео сервисы, хостинги).

Или же более детально SKIP только для гугла:  (ip.geoip.asnum in {15169})

AS сеть 15169 Google.

frank_82 #:
Ботов создает сам  cloudflare 😂 easy money 

Смешно но нет, в чем профит клауда? На бесплатном все блочится. На платном просто логи структурированные и другие плюшки.

Всего: 397