на форуме CF писали, что это те у кого нет альтернативы использовать v4, то есть полностью отключить ipv6 нельзя
этот префетч работает и для ipv4, отключение ipv6 в данном случае бесполезно, я выше ссылку на айпишника гугла для префетча скинул, там есть и ipv4 и ipv6: https://www.gstatic.com/chrome/prefetchproxy/prefetch_proxy_geofeed
Разобрался что это за трафик идет, но не понятно - блокировать его или нет.Это: Частный прокси-сервер предварительной выборки в Chrome https://developer.chrome.com/blog/private-prefetch-proxy?hl=ru#С одной стороны это ускоряет загрузку страниц, но как я понимаю там страницы кэшируются и контент может показываться старый (например обновление цен товаров или контактные данные ... да много чего может обновляться). Речь идет про мобильные версии сайта. Столкнулся с проблемой что страница обновилась, захожу в телефон, нажимаю на сохраненную ссылку - она открывает старый контент, причем кэширование настроено правильно + last-modified
в нджинксе отключается так:
location = /.well-known/traffic-advice { types { } default_type "application/trafficadvice+json; charset=utf-8"; expires 10d; access_log off; return 200 '[{"user_agent": "prefetch-proxy","disallow": true}]';}
а вот для апача такого элегантного решения нет, надо создать реальный текстовой файл "/.well-known/traffic-advice", без расширения, записать туда строку
[{"user_agent": "prefetch-proxy","disallow": true}]
и для этого файла настроить отдачу правильного заголовка (mime) в .htaccess:
RewriteRule "^/\.well-known/traffic-advice$" - [T=application/trafficadvice+json,END]
что такое Paytrix?
Paytrix — это компания, предоставляющая решения в области платежей и финансовых технологий (FinTech). Основная цель Paytrix — упрощение и оптимизация международных платежей для бизнеса, особенно для компаний, работающих в сфере электронной коммерции, SaaS и других цифровых услуг. Paytrix предлагает платформу, которая позволяет компаниям управлять платежами в различных валютах и странах через единый интерфейс, минимизируя сложности, связанные с конвертацией валют, комиссиями и локальными платежными системами. Это помогает бизнесу снизить издержки и ускорить процессы расчетов. Если у вас есть конкретные вопросы о Paytrix или их услугах, дайте знать! 😊
Paytrix — это компания, предоставляющая решения в области платежей и финансовых технологий (FinTech). Основная цель Paytrix — упрощение и оптимизация международных платежей для бизнеса, особенно для компаний, работающих в сфере электронной коммерции, SaaS и других цифровых услуг.
Paytrix предлагает платформу, которая позволяет компаниям управлять платежами в различных валютах и странах через единый интерфейс, минимизируя сложности, связанные с конвертацией валют, комиссиями и локальными платежными системами. Это помогает бизнесу снизить издержки и ускорить процессы расчетов.
Если у вас есть конкретные вопросы о Paytrix или их услугах, дайте знать! 😊
у этой компании есть сайт?
Да, у компании Paytrix есть официальный сайт. Вы можете найти его по адресу: https://www.paytrix.com. Там вы сможете узнать больше об их услугах, решениях и возможностях для бизнеса. 😊
по этому адресу нет никакого сайта
Извините за путаницу! Похоже, я ошибся с адресом. Попробуйте найти информацию о компании Paytrix через поисковые системы (например, Google), чтобы узнать актуальный сайт или связаться с ними. Если у вас есть дополнительные вопросы, дайте знать! 😊
вот так он может сочинить
это сбой на тспу, а не на каналах связи, как правильно тут заметили, через ссш сервера были доступны, также работало всё через впн, не работали сайты через "прямые" каналы провайдеров
вы используете регулярные выражения для блокировки ботов, не понимая их значения, когда вы ставите перед именем бота шляпку ^, то тем самым говорите, что имя бота должно НАЧИНАТЬСЯ с того, что указано далее, а не содержать, уберите как минимум шляпки, чтобы условия проверяли корректно имена ботов, а как максимум, запишите одно нормальное регулярное выражение вместо десятков, например так
RewriteCond %{HTTP_USER_AGENT} ^.*(craftbot|download|extract|stripper|sucker|ninja|clshttp|webspider|leacher|collector|grabber|webpictures).*$ [NC]RewriteRule . - [F,L]
а вот мой (nginx)
if ($http_user_agent ~* (PetalBot|MauiBot|GuzzleHttp|DotBot|ZumBot|serpstatbot|YunSecurityBot|IZaBEE|trendiction|vebidoobot|Seekport|ICC\-Crawler|WinHttp|opensiteexplorer|DotBot|alphaseobot|Sogou\s*web|Vagabondo|Re\-re\s*Studio|femtosearch|Uptimebot|psbot|Seopult|HttpUrlConnection|Microsoft\s*URL\s*Control|Detectify|BDCbot|zgrab|Scrapy|Nimbostratus|VelenPublicWebCrawler|Researchscan|LinkpadBot|YisouSpider|Cliqzbot|SemrushBot|VelenPublicWebCrawler|sistrix|SEOkicks|Riddler|Linguee|tracemyfile|python|statdom\.ru|MJ12bot|Apache[\s\-]*HttpClient|megaindex|CCBot|wget|ip\-web\-crawler\.com|curl|BLEXBot|teleport|ZmEu|360\s*Spider|Collapsar\s*TEXT|libwww\-perl|libwww|Snoopy|HuaweiSymantecSpider|TurnitinBot|MJ12bot|Gigabot|SolomonoBot|Ezooms|Indy.*?Library|Feed.*?Parser|Yahoo.*?Pipes|WordPress|AhrefsBot|DLE_Spider) ) { return 403;}