Robots.txt

New Member
На сайте с 21.12.2008
Offline
211
382

Сейчас в СЕРПе кучу дубликатов в индексе, из-за формы поиска на сайте.

Хочется всю эту дрянь убрать и закрыть от индексации.

Если я просто сейчас в robots.txt поставлю запрет на индексацию этих страниц, гугл выкинет их из индекса сам?

Раскрутка сайтов (https://seomasters.com.ua/)
S
На сайте с 14.06.2011
Offline
28
#1

Такая же беда!

В роботсе все закрыто уже 2 недели (дубли появились 3 недели назад).

До сих пор нет результата. Гугл жутко ругается на повторяющиеся мета описание.(((

Уже не знаю что делать. Может стоит просто подождать?

angr
На сайте с 11.05.2006
Offline
413
#2

со временем выкинет

Требуется СЕО-Специалист в Кишиневе, в офис. ()
uberchel
На сайте с 16.01.2010
Offline
70
#3
New Member:
Сейчас в СЕРПе кучу дубликатов в индексе, из-за формы поиска на сайте.
Хочется всю эту дрянь убрать и закрыть от индексации.
Если я просто сейчас в robots.txt поставлю запрет на индексацию этих страниц, гугл выкинет их из индекса сам?

Да, гугл удалит их из своей базы, постепенно.

Video-G - Мощный парсер видео для вашего сайта! (http://video-g.ru/)
webrock
На сайте с 05.04.2010
Offline
261
#4
New Member:
Сейчас в СЕРПе кучу дубликатов в индексе, из-за формы поиска на сайте.
Хочется всю эту дрянь убрать и закрыть от индексации.
Если я просто сейчас в robots.txt поставлю запрет на индексацию этих страниц, гугл выкинет их из индекса сам?

Конечно сам. Для того и существует robots.txt что бы управлять роботами. Только "выкидывание" произойдёт не сразу, а через несколько UPов, когда Google обновит свою базу и подчистит кэш.

Полный аудит сайтов. (/ru/forum/765361)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий