ждать нового апа
Прав в том, что гугл за 2 дня пережевал весь сайт, перечитал вес, учел тексты ссылок и выбросил из выдачи? Нереально.
Прочтите ветку - 10, 15, 17 ноября выпало сразу по нескольку сайтов - люди писали. Апа зверей нет вроде, но сайты выпадают, интересно почему :) Из свежевыпавших пока ни один не видела.
Потому мое мнение - падение после перелинковки - просто совпадение.
Я бы не объединяла точно, выше вам верно сказали - узкотематические проще двигать.
Поддомены вместо разделов - плохо.
Про отклонение писала детально тут /ru/forum/comment/12333367
Определять какие ссылки хорошие, какие плохие можно по-разному.
Вас наказали за неестественные, это:
коммерческие анкоры - точное вхождение ключа
на нетематических сайтах
сквозные ссылки
все, что в футере
все, что на страницах с PR (Если коммерческий анкор, если нет - не трогаем)
Все зависит от того, какая именно зверушка вас клюнула, исправите ли вы проблему, которая к этому привела. И от того, когда будет апдейт зверя, куснувшего вас и зацепит ли ваш сайт в этот апдейт и решит ли, что вы точно исправили проблему.
фуф.. по-простому - неведомо.
Вы не описали ситуацию. Сайт выпал из поиска, снизились позиции, упал трафик. Или просто не растет в поиске?
Зачем спрашивать совета, если вы уверены в своей правоте?
Дело точно не в перелинковке, тем более, что вылетел сайт через 2 дня после ее проведения! Где вы видели столь быструю реакцию поисковиков на изменения во внутренних ссылках? Им пока пережевать весь ваш сайт по-новой, нужно не менее месяца.
Не хотите помощи - вам ее никто не навязывает, считайте, что дело в перелинковке. Напишите статью "О скоропостижном влиянии некачественной перелинковки на позиции сайта в поиске и страницы соплях", придумайте новый фильтр Google...
Нельзя закрывать страницы пагинации от индексации и canonnical им тоже не подходит.
На страницы пагинации нужно добавить код rel=«next|prev»
подробно: http://habrahabr.ru/post/128746/
Если возможно - в тайтлы добавить вначале "Страница 2", не выводить на 2й странице описание категории, например, но и без этого все будет хорошо, и яндекс и гугл понимают «next|prev» и не считают страницы дублями.
Посмотрю пациента
Советы, которые помогут, вам не подойдут - "вручную его наполнить нереально, поэтому использовался генератор текстов" - в этом и проблема + слишком глубоко спрятали.
Если вы сочли эти страницы недостойными качественного наполнения, почему поисковик должен решить, что они достойны находиться в выдаче? При таком количестве некачественных страниц, может и АГС прийти в гости.