Вопрос по robots.txt

12
Links Forever
На сайте с 20.08.2006
Offline
329
1608

Если я роботу Яндекса запрещу индексацию страниц второго уровня, он будет индексировать страницы третьего уровня, при условии, что ссылки на страницы третьего уровня идут со страниц второго уровня?

Хочу для ДЛЕ закрыть индексацию страниц типа /page/x/

Т.е. страница второго уровня site.ru/page/

страница третьего уровня site.ru/infoshka.html

Ссылка идет со страницы site.ru/page/ на site.ru/infoshka.html и стоит правило disallow: */page/

Меня волнует вопрос будет ли робот заходить на заблокированную страницу и переходить по ссылкам с заблокированной страницы на незаблокированные и соответственно индексить их? Понятно, что саму заблокированную он индексить не будет.

Я очень люблю вкусные рецепты (https://povar24.info) квашеной капусты (https://kvashenaya-kapusta.ru/) и салат оливье (https://salatolive.ru/).
M5
На сайте с 12.08.2009
Offline
221
M25
#1

сорри, потерто, недопонял вопрос

► Рейтинг серверов — ТОП10 ◄
Links Forever
На сайте с 20.08.2006
Offline
329
#2

потёрто 100500

maverik_ua
На сайте с 08.04.2012
Offline
34
#3

http://webmaster.yandex.ua/ там прочерить робот, указуй сайт, скачивай робот, внизу вставь адреса которые интересны для индексации... если написано разрешон, значит проиндексирует.

Links Forever
На сайте с 20.08.2006
Offline
329
#4
maverik_ua:
http://webmaster.yandex.ua/ там прочерить робот, указуй сайт, скачивай робот, внизу вставь адреса которые интересны для индексации... если написано разрешон, значит проиндексирует.

маразм. и так понятно что в урле site.ru/infoshka.html нет слова page и он покажет, что проиндексит.

M5
На сайте с 12.08.2009
Offline
221
M25
#5

_alk0g0lik_, я так полагаю, Вам нужно скрыть от индексации страницы пагинации, но в то же время, разрешить индексироваться всему контенту? если так, то у меня закрыты все /page/ в роботсе, но яндекс тем не менее схавал все страницы - через sitemap.xml и рсс-ку, так что за это не переживайте.

---------- Добавлено 17.06.2012 в 15:29 ----------

Если хотите наверняка, можете в метатегах страниц вида /page/ указать что-то вроде такого:

<META name="ROBOTS" content="noindex, follow">
Links Forever
На сайте с 20.08.2006
Offline
329
#6
M25:
_alk0g0lik_, я так полагаю, Вам нужно скрыть от индексации страницы пагинации, но в то же время, разрешить индексироваться всему контенту? если так, то у меня закрыты все /page/ в роботсе, но яндекс тем не менее схавал все страницы - через sitemap.xml и рсс-ку, так что за это не переживайте.

ну это да, но если я за раз добавлю 1000 статей, то он может далеко не все схавать так как бОльшая часть ссылок пойдет именно с этих страниц. И вот тут-то и заковыка.

M25:

Если хотите наверняка, можете в метатегах страниц вида /page/ указать что-то вроде такого:
<META name="ROBOTS" content="noindex, follow">

Это геморр, для ДЛЕ нет отдельного шаблона для этих страниц, а ковырять код я не хочу, люблю работать с оригинальными дистрибутивами.

S
На сайте с 29.09.2009
Offline
133
#7
_alk0g0lik_:

Меня волнует вопрос будет ли робот заходить на заблокированную страницу и переходить по ссылкам с заблокированной страницы на незаблокированные и соответственно индексить их? Понятно, что саму заблокированную он индексить не будет.

Осюда. Там ещё много чего интересного.



В Яндексе с этим дела получше, все страницы, закрытые через роботс, НЕ попадают в основной индекс Яндекса, однако роботом просматриваются и загружаются, это наглядно видно в панели вебмастера, где, например, можно наблюдать такое: Загружено роботом — 178046 / Страниц в поиске — 72437. Разумеется, причина такого расхождения аж в 100к страниц не полностью следствие запрещения страниц через robots.txt, здесь есть и 404 ошибки, например, и другие неполадки сайта, которые могут случаться по различным причинам.
Резюмируя вышесказанное:

Для Яндекса robots.txt запрещает индексацию (в данном случае под этим словом подразумеваем отображение в результатах поиска) закрытых страницы, но не запрещает их загрузку роботами. Такие страницы видны только владельцу сайта в панели вебмастера в разделе «Исключенные страницы».

Для Google robots.txt частично запрещает индексацию страниц, робот их загружает и может отображать в дополнительном индексе, закрытые страницы не отображаются в основном индексе, но все они доступны при изучении дополнительной выдачи (supplemental). Насколько это плохо или хорошо — не известно — в мануалах Гугла такой информации не нашлось. Надеюсь, что это никак не влияет на ранжирование в плохую сторону.
Links Forever
На сайте с 20.08.2006
Offline
329
#8
scrivente:
Осюда. Там ещё много чего интересного.

Ага, осталось только понять насколько товарищ Алаев разбирается в вопросах SEO.

[Удален]
#9

_alk0g0lik_, а в чем собственно вопрос? Страницы ведь открыты для индексации. Даже если нет никаких ссылок на них, они могут попасть в индекс (бар и прочее), но этот процесс будет бодрее если ссылки будут присутствовать.

Links Forever
На сайте с 20.08.2006
Offline
329
#10
madwat:
но этот процесс будет бодрее если ссылки будут присутствовать.

Ну вопрос попадания в индекс для меня крайне важный.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий