Вопрос по robots.txt и закрытию от индексации.

1 23
K
На сайте с 31.01.2001
Offline
737
#21
DaHuJIka:
Google умудрился проиндексировать страницы типа

И как они выглядят в выдаче? Тайтл, сниппет, что там?

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
DH
На сайте с 20.10.2010
Offline
28
#22
Kost:
И как они выглядят в выдаче? Тайтл, сниппет, что там?

Страницы типа /feed не выглядят вообще никак. То есть в результате выдачи там, где title должен быть, просто ссылка. Сниппета нет. Только ссылка.

Страницы категорий выглядят, как обычные страницы. В качестве title имя категории, в качестве сниппета - первые слова на странице.

lustoff
На сайте с 14.10.2011
Offline
76
#23
DaHuJIka:

Вопроса два:
Почему так вышло? Не хотелось бы повторять этих ошибок в будущем.
Что сделать теперь, что гугл выкинул на хрен страницы с индекса?

Там достаточно было указать только директиву

Disallow: /category

Disallow: /category/*/* - не обязательно

если я не ошибаюсь.

Было, что при явном запрете индексации страницы попадали в индекс Гугла. Глюк видимо. Потом сами и пропадали.

https://04744.biz (https://04744.biz) - доска объявлений Умани. Вы уверены, что ваше мнение не навязано другими? (http://www.youtube.com/watch?v=CX6VvoTo0Qc&feature=related)
vasvas
На сайте с 30.08.2007
Offline
100
#24

Не переживайте, объясняется это просто - гугл индексирует страницы, запрещенные в robots.txt.

Совсем недавно проводил эксперимент - было создано зеркало основного сайта, и весь новый сайт был запрещен к индексации гуглом через robots.txt. Через две недели после создания зеркала в панели основного сайта появились ссылки с зеркала - напомню, что зеркало было полностью запрещено к индексации гуглом (в панели вебмастера гугл настойчиво предлагал исправить эту ошибку). К тому же, на зеркале не было ссылок на основной сайт - то есть гугл, проиндексировав зеркало, понял, что это зеркало. Всего на данный момент на этом сайте, запрещенном к индексации, проиндексировано более 1000 страниц, постепенно количество увеличивается.

Так что все нормально с вашим robots.txt, гуглу он просто не указ :)

DH
На сайте с 20.10.2010
Offline
28
#25
lustoff:
Там достаточно было указать только директиву
Disallow: /category
Disallow: /category/*/* - не обязательно
если я не ошибаюсь.

Это я просто опешил и прописал Гуглу совсем уж ясно, чтоб понял. Раньше не было второй записи, одной действительно достаточно.

vasvas:


Так что все нормально с вашим robots.txt, гуглу он просто не указ :)

Да, после всех телодвижений тоже пришел к такому выводу.

И кстати, как такой расклад? Гугл выкинул часть страниц категорий, но вместо них положил страницы типа /feed. Лучше бы он так новости добавленные в индекс затаскивал. :)

S
На сайте с 28.10.2005
Offline
296
#26
DaHuJIka:

Вопроса два:
Почему так вышло? Не хотелось бы повторять этих ошибок в будущем.
Что сделать теперь, что гугл выкинул на хрен страницы с индекса?

Гугл показывает в списке проиндексированных и страницы запрещенные для индексации

ST
На сайте с 19.09.2011
Offline
4
#27

Если я правильно помню то даже в официальной документации гугла написано, что он может проиндексировать страницу закрытую robots.txt если например найдет такую страницу по ссылке.

тот кто работает - добьется цели (http://trudogolik.com.ua)
1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий