Google задваивает страницы. Как исправить?

D
На сайте с 20.09.2013
Offline
82
988

Добрый день. В поиске Google, если вбить site:moisite.ru выскакивает сообщение "Мы скрыли некоторые результаты, которые очень похожи на уже представленные выше (1)." Если открыть скрытую вкладку, то там отображается страница "moisite.ru/feed". В robots.txt есть записи:

Disallow: /feed/

Disallow: */feed

Почему дубли статей попадают в индекс? На сайте стоит рассылка feedburner.

Помогите разобраться.

Pavel Medvedev
На сайте с 27.01.2006
Offline
166
#1

пометка есть что страница запрещена в роботс?

Консультирую по SEO. Опыт c 2005: окна топ1,Ашан,Фишки,Спортс и др. Пишите в FB.
D
На сайте с 20.09.2013
Offline
82
#2

Ну да, такие записи есть в robots:Disallow: /feed/

Disallow: */feed. Если проверить страницу moisite.ru/feed, то выводится сообщение:запрещено. Но google robots игнорирует и, соответственно, инденсирует.

Цахес
На сайте с 15.03.2007
Offline
205
#3

Если robots.txt составлен корректно, то в сниппете таких страниц должно быть указано: "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."

https://support.google.com/webmasters/answer/156449?hl=ru

- Хорошие и плохие тексты для ваших сайтов (http://www.textsale.ru/team57397.html). - Удаленная работа. Вакансия копирайтера/рерайтера. (http://advego.ru/6myq8sgvKk) - Быстрое составление семантического ядра (https://topvisor.ru/?inv=39380).
E
На сайте с 21.09.2009
Offline
283
#4

djotr, /ru/forum/837572 с 27го сообщения почитайте. Там все с примерами про роботс.

D
На сайте с 20.09.2013
Offline
82
#5
Цахес:
Если robots.txt составлен корректно, то в сниппете таких страниц должно быть указано: "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."

https://support.google.com/webmasters/answer/156449?hl=ru

Так и указано.

D
На сайте с 20.09.2013
Offline
82
#6
easywind:
djotr, /ru/forum/837572 с 27го сообщения почитайте. Там все с примерами про роботс.

Конкретного решения не увидел.

E
На сайте с 21.09.2009
Offline
283
#7

djotr, тему читали? там все расписано было.

New Member
На сайте с 21.12.2008
Offline
211
#8

Начнем с того, что robots.txt запрещает сканировать, а не индексировать. Если страницы уже были в индексе, через роботс их не выплюнуть.

Раскрутка сайтов (https://seomasters.com.ua/)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий