aldous

Рейтинг
109
Регистрация
25.10.2014

Вот что бывает, когда справочные статьи читают по диагонали.

У вас на сайтах меры с "затронуто всё". Какие тут ещё эксперименты могут быть? Меры снимать надо.

Можете нормально написать, в чем проблема?

Ну есть у вас два скрипта, которые закрыты хозяевами от сканирования. И что?

Ссылки надо изучать и смотреть, попадались ли под ручные меры сайты с этими ссылками.

Я видел меры за форбс, комсомолку или что-то подобное ей, уже не помню.

Суть в том, что Google почти никогда не даёт меры за торговлю ссылками, только за покупку. Зачем? Торгуйте на здоровье уже пустыми ссылками (если попались). Это же очевидно. Поэтому некоторые и пишут, мол наставил кучу крутых беклинков и глухо.

Ещё ссылки без рейтинга у вк, гугл+ и других социалок, залетающих в поиск.

Гадать бессмысленно.

Либо у вас гс и нахимичили до мер, либо банально поменялся листинг сайтов, говно выкинули, заменили на другое говно :-).

Google периодически ставит эксперименты, а может и вовсе ставить и убирать, чтобы посмотреть пф в поиске.

Катастрофы нет, скорее всего всё штатно.

Могу рассказать, как в Google относятся к вашему "первоисточник" и "уникальность".

Понятия как такового нет. ПС изначально не запланирована решать такие вопросы, ибо вопрос бесконечен и решается только в юридической плоскости. И даже при выдаче патентов органы нередко ошибаются. Все слышали про плагиаты докторских у наших чиновников?

Принцип "кто раньше встал, того и тапки" (маркер времени) действует лишь для целесообразности структурирования информации в поиске. Чтобы не плодить дубли. То есть фактически и физически наплевать, кто там первоисточник (см выше), главное, чтобы дубли отсекались. Работает частично, так как веб-мастера воют ("украли когда сайт ещё не индексировался чё делать").

Принцип "бань всех клонов" вообще не работает. Например, производитель консервы разослал партнёрам кучу инфы. У всех в магазинах она одинаковая. И писать про неё нечего. Тоже самое и с новостями. Репост он и в Африке репост и не требует глупых рерайтов.

Маркеров определения, что вот этот Вася - автор нет. Потому что возиться с этими авторами никто не хочет - погрязнет Google в судах (такая деятельность присвоения авторства без оснований чисто волей Гугла частному лицу противоречит американскому законодательству и вообще любому). Термин "уникальность" тоже относится к нубству по простой причине, что всем накласть с прибором на подсчёты последовательности буковок. Более того, в магазинах 3 строчки полезного копипаста дадут +, а 10 строк "униКакального текста" с разведением воды дадут минус.

К счастью для Google есть ChillingEffecs, который как-то эти авторства разруливает. Как там работают - хз, но это никому не интересно.

Итог: если у вас воруют, то либо гоу в Чиллинг, либо не надо сидеть и мять булки, а сразу придумывать рычаги давления на клона (засудить хостера). Крутые дяди и богатые организации оформляют бумаги на контент в РФ, а потом идут в суд.

Взломанные сайты несут точно такую же ответственность.

Программа авторшип закрыта, не тратье время. Но это не было защитой, просто отображение аватарки из Google plus в выдаче, остальное - фантазии сеошников.

в robots.txt просто указать Disallow и через раздел "Удалить URL-адреса" перечислить ссылки?

После того, как сделаете, потом не жалуйтесь, что пошла сплошная кривизна, и ссылки намертво засели.

Не используйте блокировку URL для удаления ненужных элементов, например старых страниц с сообщением об ошибке 404.

Матчасть по функционированию robots.txt. Удивительно, что robots'ом практически никто не умеет правильно пользоваться.

Если что и можно заблокировать в robots.txt - это потенциально будущий мусор. Однако от него разумнее избавляться - делать удалённым (410) или (если это дубли), использовать канонизацию ссылок (как у ebay, нежелательно).

Всего: 425