WebStorm

Рейтинг
165
Регистрация
01.11.2008
master32 #:

на форуме CF писали, что это те у кого нет альтернативы использовать v4, то есть полностью отключить ipv6 нельзя

этот префетч работает и для ipv4, отключение ipv6 в данном случае бесполезно, я выше ссылку на айпишника гугла для префетча скинул, там есть и ipv4 и ipv6: https://www.gstatic.com/chrome/prefetchproxy/prefetch_proxy_geofeed

Алексанр #:

Разобрался что это за трафик идет, но не понятно - блокировать его или нет.

Это:  Частный прокси-сервер предварительной выборки в Chrome

https://developer.chrome.com/blog/private-prefetch-proxy?hl=ru#

С одной стороны это ускоряет загрузку страниц, но как я понимаю там страницы кэшируются и контент может показываться старый (например обновление цен товаров или контактные данные ... да много чего может обновляться). Речь идет про мобильные версии сайта. Столкнулся с проблемой что страница обновилась, захожу в телефон, нажимаю на сохраненную ссылку - она открывает старый контент, причем кэширование настроено правильно + last-modified

стоит блокировать, но не айпишники гугла, а саму функцию префетча, она по большому счёту бесполезна в 99% случаев, однако открывает широкие возможности для атак "отказ в обслуживании", на меня такие атаки шли, пока не отключил, у гугла куча отдельных прокси для каждой страны (https://www.gstatic.com/chrome/prefetchproxy/prefetch_proxy_geofeed), если все навалятся одновременно, да ещё и например на кучу разных страниц, то сайту может поплохеть

в нджинксе отключается так:

location = /.well-known/traffic-advice {
    types { }
    default_type "application/trafficadvice+json; charset=utf-8";
        expires 10d;
        access_log off;
    return 200 '[{"user_agent": "prefetch-proxy","disallow": true}]';
}

а вот для апача такого элегантного решения нет, надо создать реальный текстовой файл "/.well-known/traffic-advice", без расширения, записать туда строку 

[{"user_agent": "prefetch-proxy","disallow": true}]

и для этого файла настроить отдачу правильного заголовка (mime) в .htaccess:

RewriteRule "^/\.well-known/traffic-advice$" - [T=application/trafficadvice+json,END]

что такое Paytrix?

Paytrix — это компания, предоставляющая решения в области платежей и финансовых технологий (FinTech). Основная цель Paytrix — упрощение и оптимизация международных платежей для бизнеса, особенно для компаний, работающих в сфере электронной коммерции, SaaS и других цифровых услуг.

Paytrix предлагает платформу, которая позволяет компаниям управлять платежами в различных валютах и странах через единый интерфейс, минимизируя сложности, связанные с конвертацией валют, комиссиями и локальными платежными системами. Это помогает бизнесу снизить издержки и ускорить процессы расчетов.

Если у вас есть конкретные вопросы о Paytrix или их услугах, дайте знать! 😊

у этой компании есть сайт?

Да, у компании Paytrix есть официальный сайт. Вы можете найти его по адресу: https://www.paytrix.com. Там вы сможете узнать больше об их услугах, решениях и возможностях для бизнеса. 😊

по этому адресу нет никакого сайта

Извините за путаницу! Похоже, я ошибся с адресом. Попробуйте найти информацию о компании Paytrix через поисковые системы (например, Google), чтобы узнать актуальный сайт или связаться с ними. Если у вас есть дополнительные вопросы, дайте знать! 😊

вот так он может сочинить


не хаос #:
Даже если доходы от рекламной службы уйдут в ноль а затем в минус, все равно останутся блогеры, ведущие свои блоги и деятели из ПС и туда будут вставлять рекламу.
Уход адсенс предопределил судьбу любительских проектов.
не согласен, создатели контента изучат язык, уйдут в бурж и будут работать через посредников, а потом, может быть и переедут подальше от духоскрепной, они на то и выбрали свободную работу, чтобы быть независимыми
пришли
тоже ничего не пришло, написано серым "Выплачено"
Dambo :
По времени прям в точности в то же время, что вчерашний сбой
я тоже не верю в совпадения, и уж тем более пояснениям от ркн, вероятно снова тестируют свой рубильник

это сбой на тспу, а не на каналах связи, как правильно тут заметили, через ссш сервера были доступны, также работало всё через впн, не работали сайты через "прямые" каналы провайдеров

Mnlaw #:
А отчего ж все остальные боты заблокированы таким образом и их нет в логах?

вы используете регулярные выражения для блокировки ботов, не понимая их значения, когда вы ставите перед именем бота шляпку ^, то тем самым говорите, что имя бота должно НАЧИНАТЬСЯ с того, что указано далее, а не содержать, уберите как минимум шляпки, чтобы условия проверяли корректно имена ботов, а как максимум, запишите одно нормальное регулярное выражение вместо десятков, например так

RewriteCond %{HTTP_USER_AGENT} ^.*(craftbot|download|extract|stripper|sucker|ninja|clshttp|webspider|leacher|collector|grabber|webpictures).*$ [NC]
RewriteRule . - [F,L]
serg5777 #:
Мой конфиг (может кому нужно):


а вот мой (nginx)

if ($http_user_agent ~* (PetalBot|MauiBot|GuzzleHttp|DotBot|ZumBot|serpstatbot|YunSecurityBot|IZaBEE|trendiction|vebidoobot|Seekport|ICC\-Crawler|WinHttp|opensiteexplorer|DotBot|alphaseobot|Sogou\s*web|Vagabondo|Re\-re\s*Studio|femtosearch|Uptimebot|psbot|Seopult|HttpUrlConnection|Microsoft\s*URL\s*Control|Detectify|BDCbot|zgrab|Scrapy|Nimbostratus|VelenPublicWebCrawler|Researchscan|LinkpadBot|YisouSpider|Cliqzbot|SemrushBot|VelenPublicWebCrawler|sistrix|SEOkicks|Riddler|Linguee|tracemyfile|python|statdom\.ru|MJ12bot|Apache[\s\-]*HttpClient|megaindex|CCBot|wget|ip\-web\-crawler\.com|curl|BLEXBot|teleport|ZmEu|360\s*Spider|Collapsar\s*TEXT|libwww\-perl|libwww|Snoopy|HuaweiSymantecSpider|TurnitinBot|MJ12bot|Gigabot|SolomonoBot|Ezooms|Indy.*?Library|Feed.*?Parser|Yahoo.*?Pipes|WordPress|AhrefsBot|DLE_Spider) ) {
    return 403;
}

Всего: 644