Зачем nofollow

Александр
На сайте с 17.07.2009
Offline
371
886

Привет, коллеги!

Разъясните пожалуйста в чем смысл вот такого тега

<meta name=“robots” content=“noindex,nofollow”>

почему недостаточно использовать только (если я хочу лишь закрыть дубль страницы)

<meta name=“robots” content=“noindex”>

Есть ли существенная разница при ранжировании ПС если указано не индексировать страницу (текст на странице, который является частичным дублем), но проходить по ссылкам (которые ведут на мой же сайт, ссылки меню, ссылки в подвале и т.д.) и как лучше использовать этот тег?

Спасибо.

Сайты на WordPress тут просто летают! (https://vk.cc/atAGUU)
87793
На сайте с 12.09.2009
Offline
661
#1
aleksandrbol:
Привет, коллеги!

Разъясните пожалуйста в чем смысл вот такого тега
<meta name=“robots” content=“noindex,nofollow”>

почему недостаточно использовать только (если я хочу лишь закрыть дубль страницы)
<meta name=“robots” content=“noindex”>

Ну, лично я смысла в nofollow здесь не вижу.

Более того, ежели я буду закрывать всю страницу по причине, скажем, того, что она чего-то там дублирует - пропишу явным образом "noindex, follow" :p.

Наше дело правое - не мешать левому!
Samba1982
На сайте с 29.04.2013
Offline
88
#2
aleksandrbol:
Привет, коллеги!

Разъясните пожалуйста в чем смысл вот такого тега
<meta name=“robots” content=“noindex,nofollow”>

почему недостаточно использовать только (если я хочу лишь закрыть дубль страницы)
<meta name=“robots” content=“noindex”>

Есть ли существенная разница при ранжировании ПС если указано не индексировать страницу (текст на странице, который является частичным дублем), но проходить по ссылкам (которые ведут на мой же сайт, ссылки меню, ссылки в подвале и т.д.) и как лучше использовать этот тег?

Спасибо.

Все четко написано и по делу https://yandex.ru/support/webmaster/controlling-robot/html.xml Один тег запрещает индексировать текст, второй ссылки, использовать один тег или два это зависит от того как вы будите закрывать дубли, если вы будите закрывать саму ссылку на страницу дубля - тогда достаточно одного тега, а если вы будите закрывать непосредственно саму страницу дубль от индексации - тогда два тега, есть еще robots.txt

Александр
На сайте с 17.07.2009
Offline
371
#3
Samba1982:
Все четко написано и по делу https://yandex.ru/support/webmaster/controlling-robot/html.xml Один тег запрещает индексировать текст, второй ссылки, использовать один тег или два это зависит от того как вы будите закрывать дубли, если вы будите закрывать саму ссылку на страницу дубля - тогда достаточно одного тега, а если вы будите закрывать непосредственно саму страницу дубль от индексации - тогда два тега, есть еще robots.txt

тег

<meta name=“robots” content=“noindex”>
говорит роботу, что текст на этой странице индексировать не надо, а тег
<meta name=“robots” content=“nofollow”>  
говорит о том чтобы он не переходил по ссылкам на этой странице.

К примеру, у меня есть страница на которой частично дублируется контент, но ссылки в шапке и в нижнем меню ведут куда следует, мне в таком случае как прописывать тег?

Ну и не совсем понятно, как он (поисковый бот) может переходить по ссылкам, если ему сказано, что делать на этой странице нечего.

87793
На сайте с 12.09.2009
Offline
661
#4
aleksandrbol:
К примеру, у меня есть страница на которой частично дублируется контент, но ссылки в шапке и в нижнем меню ведут куда следует, мне в таком случае как прописывать тег?

Я не вижу причин запрещать в этом случае роботу ходить по этим ссылкам.

Александр
На сайте с 17.07.2009
Offline
371
#5
87793:
Я не вижу причин запрещать в этом случае роботу ходить по этим ссылкам.

я с вами согласен, но регулярно вижу в ТОПе сайты которые закрывают разделы именно вот так

<meta name=“robots” content=“noindex,nofollow”>  

Может в этом есть какая то правда и мы с вами ничерта не понимаем?

Александр
На сайте с 17.07.2009
Offline
371
#6

еще вопрос, а не мешает запрет страниц в файле robots метатегам страницы?

genjnat
На сайте с 08.10.2008
Offline
214
#7

От структуры, и количества потенциальных дублей все.

К примеру там где фильтры способны генерировать 100500 стр из одной, или календари с таким же свойством - можно написать и ноуфолоу.

Зачем запускать ботов в эти генераторы бесконечностей, пусть индексируют то что нужно...

В стандартных разделах/категориях достаточно ноуиндекс.

Хотя правильнее и проще это решать через rel="canonical"

aleksandrbol:
еще вопрос, а не мешает запрет страниц в файле robots метатегам страницы?

Если закрыли через метатеги, то в роботс лучше убрать. Оно не то что б важно, но позволит Гуглу убрать из индекса вот такое

Александр
На сайте с 17.07.2009
Offline
371
#8
genjnat:
Если закрыли через метатеги, то в роботс лучше убрать. Оно не то что б важно, но позволит Гуглу убрать из индекса вот такое

Понял, спасибо, а как влияет подобный контент (закрытый в robots, но болтающийся в индексе)?

genjnat
На сайте с 08.10.2008
Offline
214
#9

Ну а зачем что бы "болталось"?)

Не знаю как оно влияет. В теории Гугл не должен воспринимать их как мусорные, это их "эксклюзивный" баг, видимо технический. А что там на самом деле...

С тех пор как эта ерунда появилась, как-то часто стали напоминать, что запрет в роботс лишь рекомендация, и советовать метатеги и каноникал.

Может как раз потому, что пофиксить не могут, а прямо признать - как-то неудобно)))

Александр
На сайте с 17.07.2009
Offline
371
#10

спасибо!

Значит буду юзать мета теги

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий