Увы, не сложилось. 8(
Я сталкивался с тем, что обычно это бывают взломанные сайты.
Поэтому лучше не в блеклист, а сообщение модераторам и реальным владельцам сайтов.
Охренеть... Куча «вторых пассажей» в сниппетных анкорах.
Кажется, господа шутники, вы спалили чей-то недурной экспериментик.
«Ты последний» вроде бы подразумевает непот (или близко к тому).
Все сайты под «Ты последний», которые я видел, были непотны.
См., например, у Миража:
Тимон, боюсь, у вас там смешались куча факторов:
1. Фильтрация «сквозняков».
2. Изменения вокруг вашего сайта (как алгоритма, так и у конкурентов).
3. Наконец, собственно, возможное занижение веса повторных ссылок.
Надо ставить более аккуратные эксперименты. 8/
Кроме того, есть вопросы:
1. Проверяли ли вы вхождение текстов ссылок в анкор-лист акцептора? Они входили?
2. Уверены ли вы, что снятые беки ушли из индекса?
3. Вы снимали ссылки независимо от того, какой там был текст?
Поясню: если были две серии ссылок (...слово1... и ...слово2...), то сохранили ли вы соотношение количества этих ссылок?
Постараюсь быть.
А зачем по башне? Просто и со вкусом. Строка-другая в коде и ура. 8)
Мне кажется, в вашем случае лучше всего перенести вап-версии на новые урлы, причем такие, чтобы их можно было без потерь закрыть в Роботсе. По старым урлам отдавать ошибку 404.
Как вариант — сделать клоакинг по юзер-агенту (только Яндексу и, если угодно, другим роботам отдавать ошибку 404).
Есть шанс, что вот пример. Хотя, конечно, не факт, что ссылка уникальна. Впрочем, Яху больше таких ссылок не знает.
Ну, например, объединением результатов запросов:
linkdomain:domain.tld -какое-нибудь_слово
linkdomain:domain.tld какое-нибудь_слово