Часто гугл игнорирует на запрет индексации страниц в файле robots.txt и закидывает их в дополнительную выдачу, так называемые "сопли", а с noindex, follow - 100% результат. Проверил на многих проектах, работает безотказно, еще замечал, что часто вебмастера для уверенности вешают и каноникал
Такое лучше не делать вообще, по факту полный дубляж контента на разных сайтах, что уже не есть хорошо
Полюбить Хабаровск он мог за отсутствия хорошей конкурентности, тем более если сайту 5 лет
Я рекомендую пересмотреть все разделы сайтов на наявность дублей текста, мета тегов, описаний товаров и т.п и максимально уникализировать каждый магазин
Так же просадкой может являться совсем другой фактор, необходимо сперва проверить оптимизацию сайта, корректность robots.txt, актуальность sitemap.xml, наличие дублей внутренних страниц, провести анализ поведенческих, показатели отказов, качество ссылочной массы, если данные показатели в норме - принимать меры по уникализации данных ресурсов
По факту проблемой является полное дублирование контента, мета-тегов на разных урл адресах сайта, если сайт не большой можно в .htaccess вручную настроить 301 редиректы с дублирующих страниц на основные, например Redirect 301 /111 http://site.ru/википедия/как-искать-в-вики, если сайт достаточно объемный, такой вариант не будет приемлем, в этом случае нужно вопрос с редиректами решать глобально
На страницах пагинации нужно убрать вывод тегов description и keywords, в тег title в конце добавить Страница 2, Страница 3 и т.д., так же убрать вывод сео-текста и в хедер сайта повесить код <meta name="robots" content="noindex, follow" />
Таким образом данные страницы будут закрыты но вес будет передаваться на основную категорию (в данном случае это /category/wiki/) , тег title на каждой странице будет уникальным.