Как избавиться от paging дубликатов

12
Алексей
На сайте с 23.02.2009
Offline
586
#11
awasome:
url-website/page/17/ - только один пример тса. А может быть url-website1, url-website23, url-website777 и везде страница /page/17/ может быть добавлена в индекс. Короче, админка такая, нужно допиливать. Ну и плюс яндекс подгадил с возможностями передачи всех урлов боту.

нужно смотреть структуру. через роботс проще, но если никак, то пилить cms(((

A
На сайте с 20.08.2010
Offline
775
#12
Алексей Питерский:
нужно смотреть структуру. через роботс проще, но если никак, то пилить cms(((

Сейчас посмотрел, не фурычит на последних версиях. Значит тс скорее всего не обновил вп, я же сам об этом писал пару месяцев назад. В любом случае, с каноническими урлами стоит поработать (страницы вида url-website1, url-website4, url-website1255 никуда не делись).

zveroangel
На сайте с 14.04.2011
Offline
182
#13

в роботcе Disallow: /page/

только проверить сначала надо, нет ли других полезных страниц в подобной же директории - бывает, что две директории названы одинаково, но с разным уровнем вложенности.

A
На сайте с 20.08.2010
Offline
775
#14
zveroangel:
в роботcе Disallow: /page/

Постраничная разбивка тоже закроется от индексации.

AS
На сайте с 03.08.2012
Offline
67
#15
awasome:
Постраничная разбивка тоже закроется от индексации.

Disallow: /page/ -в таком случае, yandex не будет индексировать их в будущем, но уже проиндексированные остаются же? Как же их удалить?

A
На сайте с 20.08.2010
Offline
775
#16
AlmazSeo:
Disallow: /page/ -в таком случае, yandex не будет индексировать их в будущем, но уже проиндексированные остаются же? Как же их удалить?

В следующий ап сами выпадут. Или, если нет желания ждать, добавляешь список страниц в роботс (disallow/) и вперед в https://webmaster.yandex.ru/delurl.xml. После операции приводишь роботс в первоначальный вид.

C
На сайте с 20.01.2015
Offline
5
#17

Вообще каноническая ссылка помогает в таких случаях. Но вот интересно как такие страницы в индекс вообще попадают? Мне кажется маловероятным что их руками кто-то в аддурилку загонял. Я бы проверил не формируются ли такие ссылки где-то на сайте.

trahtor
На сайте с 06.12.2005
Offline
426
#18
awasome:
В следующий ап сами выпадут. Или, если нет желания ждать, добавляешь список страниц в роботс (disallow/) и вперед в https://webmaster.yandex.ru/delurl.xml. После операции приводишь роботс в первоначальный вид.

А если на эти страницы есть какието ссылки? Твиттер например. 🙄

Алексей
На сайте с 23.02.2009
Offline
586
#19
trahtor:
А если на эти страницы есть какието ссылки? Твиттер например. 🙄

то 301 редирект

если есть желание и время

Satisfaction
На сайте с 10.05.2012
Offline
33
#20

Я думаю, что пользователи в первую очередь ищут контент и соответственно, находят в выдаче - страницы статей, а не страницы каталогов. Соответственно, возможно есть смысл закрыть от индексации содержимое страниц каталогов - каталоги по категориям, датам, авторам и их пагинацию. Ведь польза от их нахождения в поисковой выдаче не очевидна. С другой стороны, это дублирование контента и некачественные внутренние ссылки.

Я не уверен, будет ли робот сканировать ссылки найденные на страницах с установленным <meta name="robots" content="noindex"> . С одной стороны, указан noindex, без nofollow. С другой стороны, если не будет, поисковым роботам для этой цели можно предоставить карту сайта. Но я рекомендую использовать именно META-тег для запрета индексации оговоренных страниц.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий