В аккаунте Adsense есть инструмент эксперименты, запустив который можно сравнить эффективность нового оформления блока в сравнении со старым вариантом.
Значит, у вас слишком "свободные" правила CSP в секциях frame-src и connect-src.
Расширение для браузера от surfearner.com вставляет на просматриваемые страницы свой iframe и ни чем не отличается от сотен других вредоносных приложений, вставляющих свою рекламу.
У меня CSP отлично режет обращения из фрейма к surfearner.com, и по обращения по connect-src к surfearner.com/do.
1. Robots.txt всегда был лишь рекомендацией для ПС
2. Еще 7 лет назад вебмастера вообще не заморачивались написанием роботс. К написанию правил в robots.txt принудили сами ПС, чтобы закрыть дубли страниц, за которые накладываются санкции. Больше файл роботс.тхт ни для чего и не нужен.
Если теперь сами ПС, ломая свои же запреты, полезут в robots и увидят дубли страниц - это их проблемы.
Короче, robots.txt - это джентльменское соглашение о "дверях без замка", но с табличками "посторонним вход запрещён". Типа, вебмастер предупреждает ботов ПС - "ты, эта, туда - не ходи, там такое! Ты лучше сюда ходи."
Только не все умеют читать таблички, да и по сути, такая "дверь" ни от чего не защищает.
Нет. Проверяется - достаточно просто:
Ставишь заголовок Content-Security-Policy-Report-Only, добавляешь в конце report-uri, по которому пишешь все отчёты в файл. В нём потом смотришь, режется ли что-то нужное.
Если ничо "нужное" не режется - убираешь хвостик "-Report-Only" и радуешься жизни.
Про X-Content-Security-Policy и X-WebKit-CSP можешь забыть, смысла в них уже нет.
PS: Правда, проскакивала информация, что X-Content-Security-Policy поддерживает IE10+, но мне такие браузеры в отчётах CSP не встречались.
Или счастливые обладатели IE10+ не ставят в него "левые" плагины, или IE10+ их сам отторгает :)
Сорри, под "совать в индекс" имелось ввиду "со стороны Google", а не вебмастера.
"Не все, что Google проиндексировал, он будет непосредственно пихать в выдачу".
Он может использовать результаты найденного и косвенно, как, например, с мобильными сайтами
Что там у кого "вывелось" - имеет лишь косвенное отношение к проблеме, ибо "вывелось - не вывелось" - сильно зависит от качества самого сайта в "глазах Яндекса".
Проблема намного шире, чем описана тут в топике - уже есть сотни расширений и плагинов к к браузерам, которые подменяют(или вставляют свою) рекламу на просматриваемых пользователем сайтах.
Да, именно - сотни, там уже давно не детский бизнес. По статистике моих сайтов - каждый 15-й посетитель заходит на сайт с "зараженным" браузером.
Основная проблема - в воровстве трафика с сайтов через вставку плагинами "левых" скриптов. А то, что всплыло тут в топике - это лишь верхушка этого айсберга, которая "засветилась" только благодаря косяку Яндекса.
А так - у вас бы и продолжали воровать трафик ещё сто лет.
Content Security Policy(при правильной настройке) - режет вставку левых скриптов и фреймов на страницу сайта.
CSP специально для этого и была разработана ещё 2 года назад, потому что в буржунете "эта хрень" началось раньше, и только теперь докатилось да рунета.
Дак я - про то же. После того, как Роскомнадзор перебанит все "облачные" IP - он поломает работу всего Интернета.
И это заденет всех пользователей, а не только посетителей заблокированных ресурсов. И это сразу станет заметно, и начнут искать "крайних".
Для накрутки посетителей используется баг Метрики.
Код метрики с вашим ID крутится на левом компе, поэтому блокировать через .htaccess не получится, тк фактически на ваш сайт никто переходит.
PS: Зря вы по ссылке выше топик не почитали,там вся кухня этого дела раскрыта.
Про IPV6 - это удар ниже пояса!
Это просто не честно, тк эти адреса по формату не влазят в списки Роскомнадзора, и российские провайдеры не умеют их блокировать.
PS: На хабре есть интересная заметка на эту тему - Определитель типа блокировки сайтов у провайдера.
Подмену DNS по IPV6 ещё ни один провайдер реализовать не смог.
Да, только вот в этой соседней теме :)