счас тоже пробую - ни в какую - за год настолько улучшили распознавание? :)
фильтры на картинку накладывай в фотошопе например, я топазом пользуюсь, большинство (99%) прогнанных картинок уникализируются
а вот так пробовал?
ок, по другому, - утверждение не верно, при наличии на странице, (на которую нет запрета в роботсе), тега ноиндекс, либо канонической ссылки, либо страница будет отдавать 404 - в индексе ее не будет, не смотря даже на наличие на нее ссылок, если есть обратные примеры пожалуйста предоставьте пруф - с возможностью, влиять на этот пруф т.е. чтобы мы могли менять роботс и соответство добавить метатег на стр.
p.s. со своей стороны я пруф предоставил - ссылка на тему в посте выше
если у вебмастера имеется возможность отдавать разные заголовки, описание стр, h1, h2 на стр с фильтрами то утверждение верно, если это не возможно - то, плиз, велкам в справку по канонизации стр
что делать по факту я написал, пример привел, в котором поставил ссылку на свой сайт с трастового форума :), почему именно у вас не так я не знаю т.к. не вижу ситуации, возможные причины отписал выше, к ним добавлю, что в данном случае следует использовать каноникал, опять же без запрета страниц в роботсе
свой ответ выше дополнил ссылкой - как пример.
p.s. по факту - выкинуть стр из индекса, вы сможете поставив в хед ноиндекс и дав боту просканировать эти страницы либо отдав на них 404 ошибку, опять же, с условием - открыв эти стр в роботсе
ноиндекс в странице не будет обработан т.к. страница не будет просканирована, но она может быть в индексе т.к. бот например мог проиндексировать ее раньше, когда она была открыта или же он пришел на нее по ссылке :) - то же самое относится и к любому др тегу в хеде и даж к 404
p.s. вот кстати поподробней на эту тему
на роботс гуглу совершенно плевать, они специально разделили понятия на сканирование и индексирование, причем, исходя из справки, индексирование возможно не смотря на запрет сканирования в роботсе :) , если тему вообще раскрыть, то гугл может сам изменять тебе значения в роботсе, т.е. виртуально подставлять свой :) - к примеру - две команды
User-agent: * Disallow: /
vs
User-agent: * Disallow /
одна из них с неправильным синтаксисом 😂 - НО - посмотри как их обрабатывает яндекс и гугл.
то же самое стало относится и к 301 редиректу - пс не следует четким указаниям вебмастера т.е. решает сама уже за него что и как - почитай эту тему внимательно :)
собирай - тут много статистики с комментами гугловцев :)
мог не снимать :), а просто после основного контента их поставить, все тож самое кстати и к изображениям, слайдерам и прочей лабудени относится - если на большей части страниц контент перекрывается чем либо - сайт пессимизируется - пруф ниже
page layout algorithm