korostelev

Рейтинг
0
Регистрация
24.06.2015
bulatbulat48:
Можно закрыть так:
Disallow: *-

учитывайте, закроются все урлы где есть "-"



эффективнее использовать noindex, nofollow как метатег.

Спасибо!

---------- Добавлено 29.06.2015 в 17:12 ----------

bulatbulat48:
Можно закрыть так:
Disallow: *-

учитывайте, закроются все урлы где есть "-"

эффективнее использовать noindex, nofollow как метатег.
.



А можно ли продублировать теги nofollow (не метатеги) запретом в роботсе? Про это в помощи гугл, например, не сказано ни слова (но есть упоминание, что при работающем noindex ставить запрет в robots не рекомендуют). Не выйдет конфликта?

Добрый день, уважаемые форумчане!

На сайте с динамически формируемыми страницами хочется закрыть для поисковиков страницы, которые формируются путем добавления в названия "простых" страниц дополнительного содержимого через тире.

К примеру, имясайта.ру/матрешка нужно индексировать, а имясайта.ру/матрешка-сапожок или имясайта.ру/матрешка-сапожок-компот индексировать и обходить не нужно. На текущий момент все "сложные" страницы имеют мета-теги noindex и теги noindex на ссылках, которые ведут к сложным страницам.

Можно ли (и как) задать правило на запрет обхода и индексирования "сложных" страниц (с тире) в robots?

Что эффективнее: использование noindex и nofollow или запрет в robots?

Возникнет ли конфликт, если "сложные" страницы будут закрыты noindex и nofollow и дополнительно для них будет задан запрет в robots?