Подскажите пожалуйста по роботс.тхт

[Удален]
356

Добрый день! Задача у меня следующая.

На сайте много исходящих ссылок которые я хочу запретить индексировать яше, но у меня не возможности к каждой такой ссылке приписывать тег.

Можно ли в роботс засунуть список этих ссылок, что бы по всему сайту эти ссылки не индексировались. И как это правильно оформить? Спасибо.

kidmusic
На сайте с 27.03.2009
Offline
38
#1

Вебмастер гугла->конфигурация сайта->Доступ сканера->"Создайте файл robots.txt"

Здесь весело!
[Удален]
#2

На вопрос не ответили) Создать и в блокноте можно. Как для яши расписать правильно?

panic
На сайте с 04.07.2008
Offline
187
#3

в роботсе не сможете, но это решаемо на програмном уровне

Цифровая мастерская kr.digital (http://kr.digital) - дорого!
kidmusic
На сайте с 27.03.2009
Offline
38
#4

greenwoodbass, Там мастер создания robots.txt, с возможностью блокировать и разрешать перечень директорий и файлов для любого бота. ☝

Но в роботе можно только внутренние ссылки запрещать, если не путаю. А внешние - rel="nofollow" (даже для Яндекса) в html.

piligrimm
На сайте с 30.07.2010
Offline
74
#5

в роботс вносится урл страниц, которые нужно запретить индексировать, а не ссылки на этих страницах

Возьму новые сайты на аутсорсинг в GGL и прочих биржах. Подробности в теме "ваш менеджер в GoGetLinks (/ru/forum/679141)"! Выполняем заявки от Wizard.Sape.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий