Я на днях разбирался с пагинацией у себя на сайте. Много прочитал. Подходы к решению проблемы очень разные.
Ситуация вроде как чревата незначительным понижением позиций за счёт дублей контента. Но не утверждаю. Сам в этой теме недавно.
Вот, что мне написал представитель моей веб студии.
Проблема устраниться разово и больше не вернется. Будут автоматически формироваться ссылки на следующие и предыдущие страницы
<link rel="prev" href="https://адрессайта/katalog-statej">
<link rel="next" href="https://адрессайта/katalog-statej?page=3">
Прописывать на каждую страницу разные метатеги и текст - неправильно. Страницы динамически появляются при добавлении статей и статьи на каждой из страниц могут меняться, а текст и метатеги должны быть о тех статьях которые на странице.
Поэтому текст и метатеги на всех страницах должны быть одинаковые, но все страницы отличные от первой должны ссылаться на главную (каноническую) страницу с помощью тега:
<link rel="canonical">
Например так сделано на https://www.dns-shop.ru
На 4 страницы раздела каталога "Системные блоки: https://www.dns-shop.ru/catalog/17a8932c16404e77/sistemnye-bloki/?p=4&i=1&mode=list
такой же текст и метатеги как и на всех других, но есть ссылка на первую (каноническую) страницу http://prntscr.com/kap537
Я согласился на такую реализацию.
Законченную работу проверял сайтрепортом. Он показывает, что всё ок. Хотя изначально он был недоволен пагинацией.
Гугл в консоли продолжает показывать дубли. Может нужно время на переиндексацию. Разбираюсь.
Я недавно на каком-то сайте видел попап про куки. Двойное раздражение, моментальный выход с сайта.