То же самое.
Было бы здорово, если бы вместе с вводом 2.1. перепроверили бы сайты-жертвы 1.0 и 2.0.
Да, смысл есть. Сейчас утраченные ссылки должны будут подхватиться.
На мой взгляд, это не очень эффективно, т.к. на внутренние страницы вес будет хуже уходить, чем через внешние ссылки. Также возможен риск фильтра, несмотря на безанкорность, поскольку для Гугла может быть неестественным, что другие сайты ссылаются только на главную страницу.
Присоединюсь к мнению vnzhirny. Был случай когда после посещения американских роботов мой контент оказался на других сайтах.
Добавило десяточку на одном проекте без каких-либо работ со ссылочным. Мелочь, а приятно. :)
Неправильно понял вопрос. Солидарен с 87793
Через Инструменты для веб-мастера Google, там есть такая опция. Через день выбрасывает страницы. Правда придется постранично выкидывать. Если страниц очень много - я бы порекомендовал бы правильно настроенный robots.txt.
А то и с третьего. 😒
Google более трепетно относится к качеству ссылочной массы.