Действительно лучше всего вручную указывать файл роботса для ПС.
А по сути можете как оставить ссылки, так и убрать их (или же сгенерить собственный сайтмапс, который будет с грамотным синтаксисом).
Мы обычно закрываем в файле Robots.txt пагинацию по следующей причине...
Когда контент уходит на вторую страницу - он переходит в виде дубля с первой. Т.е. информация дублируется не смотря на то, что заголовки разные.
В интернете множество примеров сокрытия пагинации, в том числе Disallow: ?p=* (в зависимости от конструкции, которую Вы применяете).
В ином случае конструкция noindex, follow будет правильной без каноникала (зачем он здесь?) и заголовками "страница 1, 2, 3".
burunduk в принципе правильно сказал.
Да, помогает.
А зачем закрывать?
Даже если на сайте указан регион, это не запрещает продвигаться даже и под разные страны.
Может быть возраст сайта, в том числе чистка ссылок отрицательно могла повлиять...не пошло в минус, но и не продолжило расти (Гугл на ссылках держится)
А страницы, которые ранее были написаны обновляются?
Уважаемый. У гугла (прямо таки в Searh Console) есть прекрасный сервис с проверкой доступности страниц по robots.txt
Вбиваете ссылку и оно показывает правило, которое срабатывает и запрещает просматривать. После этого правите сам файл и отправляет гуглу новую версию с последующим обновлением странички консоли.
От криворукости хостера никто не застрахован)))
Он подстраивает, но не на столько, чтобы одному человеку показывать сайт из позиции топ100 в позиции топ1.
Все может быть с разбросом в несколько позиций. В остальных случаях отображение релевантно даже и для персонализированного показа.
Если сайт физически работает и можно пройти по урлу - хостеры значит не до конца все исправили.
В ином случае воспользуйтесь репортом.
https://www.google.com/webmasters/tools/dmca-notice?hl=ru
Сюда указываете типа причину нарушения "авторского права" на базе ошибки системы хостинга или как-то объясняете, почему гугл должен будет удалить материалы.
Основные правла интернет-маркетинга (ну примерно):
1. Все, что ниже топ 3 - почти не посещается;
2. Если информации в топ 3 нет - посещается то, что ниже
3. Если title и description не привлекательны - CTR будет низким.
4. Если страница оптимизирована не под ключ из сем. ядра - переходов не будет.
Ну и плюс можно продолжать долго и скучно.
Подайте на реиндексацию страницу "посмотреть как гуглбот", удалите из карты сайта и ждите.
Если не помогает вот ссылочка на удалялку (+ помощь)
https://support.google.com/websearch/troubleshooter/3111061?hl=ru&visit_id=1-636099909691183399-2587325844&rd=1