Смотря какие дубли.
Есть разные частные случаи.
Общего ответа на ваш вопрос нет.
А что удивительного?
Мне кажется, это типичная ситуация.
Мета-тег robots в данном случае лучше не использовать, чтобы избежать ошибок реализации.
Если настраивать его, и в случае поломки будет выводиться
<META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">
на нужных страницах, ничего хорошего от этого не будет.
а вот link rel= canonical - здесь поможет, и ошибок не возникнет.
А чего бояться-то?
Конечно, нажимайте.
Если сайт небольшой, можно по 10 страниц отправлять на переиндексацию в Вебмастере.
Да для списка до 10к страниц бесплатной версии хватит, ключ не нужен.
Возможности те же самые, вот тарифы могут быть другие.
Надо смотреть.
Screaming Frog SEO Spider в помощь.
или Netpeak Spider, как вариант.
Санкции в Яндекс? В google?
Постраничные или на весь домен?
Но если их в robots.txt закрыть, то робот на них не сможет зайти. И не поймет, что их нужно удалить из индекса.
Вот это уже хорошая идея.
Зависит от количества таких страниц ,конечно.
А массовую отправку страниц на ПЕРЕиндексацию после смены урлов ComparseR может делать?