сопли-сопли, 1 конкретный вопрос по ним

vigilant
На сайте с 14.10.2010
Offline
82
722

есть у меня проблема, что в соплях гугла висят закрытые в роботс страницы

как я понял, проблема решается убиранием запрета из роботс и прописыванием нужног мета-тега, это с существующими страницами, например тегов, понятно и вроде работает

а что делать со страницами вида domen/index.php?abrakadabra, доставшимися в наследство от старого движка?

в роботсах ?* закрыто, но в соплях оно висит со сниппетом про запрет в роботс

если уберу запрет из роботса, что случится?

при условии, что domen/index.php?abrakadabra1 domen/index.php?abrakadabra2 domen/index.php?abrakadabra3 и так далее не будут отдавать 404, а будут просто открывать главную.

как правильно избавиться? руками удалять по одному не вариант, их много

chab4
На сайте с 10.01.2011
Offline
97
#1

Если они в индексе, удалите через webmasters tools. В Robots.txt оставте.

Lemarbet (http://lemarbet.com/) — успешные кейсы развития интернет-магазинов.
vigilant
На сайте с 14.10.2010
Offline
82
#2

это же гуглебугле, по одной ссылке добавлять руками + выковыривать их из выдачи.. не, это неправильный путь

O2
На сайте с 28.07.2012
Offline
7
#3
vigilant:
не будут отдавать 404, а будут просто открывать главную

А почему не прописать в .htaccess страницу для 404 в дизайне, с которой посетитель может продолжить гулять по сайту?

vigilant
На сайте с 14.10.2010
Offline
82
#4
oracleh2:

А почему не прописать в .htaccess страницу для 404 в дизайне, с которой посетитель может продолжить гулять по сайту?

Хм, а это мысль. Имеете в виду по этой маске фильтровать и отдавать 404? А из роботса, получается, временно убрать?

E
На сайте с 21.09.2009
Offline
283
#5
vigilant:
Хм, а это мысль. Имеете в виду по этой маске фильтровать и отдавать 404? А из роботса, получается, временно убрать?

Сглупил и сделал лишний параметр в урл. Сделал при помощи ПХП что если заходят на страницу и в урл есть этот параметр то выдается 404 ошибка. Примерно за месяц ушли все страницы.

mashtalir
На сайте с 20.03.2012
Offline
29
#6

По моему опыту не существующие страницы которые в индексе гугла - удаляются из индекса в течении 2-3х месяцев сами.

vigilant
На сайте с 14.10.2010
Offline
82
#7

моим соплям уже года 2, так что.. фокус в том, что если оно

1. проиндексировалось

2. было закрыто в роботс

3. гугл увидел, что закрыто (опционально)

4. было удалено

в индексе оно все равно повиснет, потому что в роботсе закрыто и гугл туда и не ходит, не проверяет, типа

к тому же у меня в индексе одна и та же страница с разными параметрами (хз что там раньше по этим параметрам отдавалось), а сейчас там нету 404, там тупо открывается одно и тоже

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий