Вот что бывает, когда справочные статьи читают по диагонали.
У вас на сайтах меры с "затронуто всё". Какие тут ещё эксперименты могут быть? Меры снимать надо.
Можете нормально написать, в чем проблема?
Ну есть у вас два скрипта, которые закрыты хозяевами от сканирования. И что?
Ссылки надо изучать и смотреть, попадались ли под ручные меры сайты с этими ссылками.
Я видел меры за форбс, комсомолку или что-то подобное ей, уже не помню.
Суть в том, что Google почти никогда не даёт меры за торговлю ссылками, только за покупку. Зачем? Торгуйте на здоровье уже пустыми ссылками (если попались). Это же очевидно. Поэтому некоторые и пишут, мол наставил кучу крутых беклинков и глухо.
Ещё ссылки без рейтинга у вк, гугл+ и других социалок, залетающих в поиск.
Гадать бессмысленно.
Либо у вас гс и нахимичили до мер, либо банально поменялся листинг сайтов, говно выкинули, заменили на другое говно :-).
Google периодически ставит эксперименты, а может и вовсе ставить и убирать, чтобы посмотреть пф в поиске.
Катастрофы нет, скорее всего всё штатно.
Могу рассказать, как в Google относятся к вашему "первоисточник" и "уникальность".
Понятия как такового нет. ПС изначально не запланирована решать такие вопросы, ибо вопрос бесконечен и решается только в юридической плоскости. И даже при выдаче патентов органы нередко ошибаются. Все слышали про плагиаты докторских у наших чиновников?
Принцип "кто раньше встал, того и тапки" (маркер времени) действует лишь для целесообразности структурирования информации в поиске. Чтобы не плодить дубли. То есть фактически и физически наплевать, кто там первоисточник (см выше), главное, чтобы дубли отсекались. Работает частично, так как веб-мастера воют ("украли когда сайт ещё не индексировался чё делать").
Принцип "бань всех клонов" вообще не работает. Например, производитель консервы разослал партнёрам кучу инфы. У всех в магазинах она одинаковая. И писать про неё нечего. Тоже самое и с новостями. Репост он и в Африке репост и не требует глупых рерайтов.
Маркеров определения, что вот этот Вася - автор нет. Потому что возиться с этими авторами никто не хочет - погрязнет Google в судах (такая деятельность присвоения авторства без оснований чисто волей Гугла частному лицу противоречит американскому законодательству и вообще любому). Термин "уникальность" тоже относится к нубству по простой причине, что всем накласть с прибором на подсчёты последовательности буковок. Более того, в магазинах 3 строчки полезного копипаста дадут +, а 10 строк "униКакального текста" с разведением воды дадут минус.
К счастью для Google есть ChillingEffecs, который как-то эти авторства разруливает. Как там работают - хз, но это никому не интересно.
Итог: если у вас воруют, то либо гоу в Чиллинг, либо не надо сидеть и мять булки, а сразу придумывать рычаги давления на клона (засудить хостера). Крутые дяди и богатые организации оформляют бумаги на контент в РФ, а потом идут в суд.
Взломанные сайты несут точно такую же ответственность.
Программа авторшип закрыта, не тратье время. Но это не было защитой, просто отображение аватарки из Google plus в выдаче, остальное - фантазии сеошников.
После того, как сделаете, потом не жалуйтесь, что пошла сплошная кривизна, и ссылки намертво засели.
Матчасть по функционированию robots.txt. Удивительно, что robots'ом практически никто не умеет правильно пользоваться.
Если что и можно заблокировать в robots.txt - это потенциально будущий мусор. Однако от него разумнее избавляться - делать удалённым (410) или (если это дубли), использовать канонизацию ссылок (как у ebay, нежелательно).
Подтверждение аккаунта Google.