что нужно написать в robots.txt?

NetMinion
На сайте с 12.05.2004
Offline
72
1068

что нужно написать в robots.txt чтобы паук не заходил на стр.

http://river.rkoop.ru/teplohod.htm

?

продается культовое доменное имя freemp3.ru жду предложений
[Удален]
#1

User-agent: *

Disallow: /teplohod.htm

NetMinion
На сайте с 12.05.2004
Offline
72
#2
Как писал Interitus
User-agent: *
Disallow: /teplohod.htm

спасибо

А
На сайте с 14.11.2003
Offline
150
#3

Продолжаю тему...

Один мой приятель просил помочь... Робот скушал кривые урлы вида http://www.сайт.ru/123/www.сайт.ru (ошибка в движке). Причем параметр 123 всегда разный (доска объявлений - номер объявления).

Соответственно, что нужно написать в robots.txt, чтобы робот не бегал по этим кривым урлам.

Неужели придется так?:(

User-agent: *

Disallow: /111/www.сайт.ru

Disallow: /222/www.сайт.ru

Или сработает так?

User-agent: *

Disallow: /www.сайт.ru

Но Яндекс при попытке удалить страницу через removeurl ругается и говорит, что эта страница не запрещена в robots.txt.

C
На сайте с 19.09.2001
Offline
120
#4

Если проблема только в Яндексе, то попробуйте написать так:

User-agent: Yandex

Disallow: /*/www.сайт.ru

А потом удалить страницы с помощью формы. Если не сложно, сообщите результаты здесь или в личке.

С уважением, Владимир Чернышов. (не)?путевые заметки (http://chernyshov.kiev.ua/)
А
На сайте с 14.11.2003
Offline
150
#5
Как писал Cherny
Если проблема только в Яндексе, то попробуйте написать так:
User-agent: Yandex
Disallow: /*/www.сайт.ru

А потом удалить страницы с помощью формы. Если не сложно, сообщите результаты здесь или в личке.

Хм... не работает...:(

Еще есть предложения?

C
На сайте с 19.09.2001
Offline
120
#6

А тем же движком нельзя сгенерить robots.txt автоматом, чтобы руками не писать?

Можно еще с помощью mod_rewrite выдавать код, отличный от 200, на все такие страницы.

А
На сайте с 14.11.2003
Offline
150
#7

Реанимирую топик. Остались вопросы.

Продвигаю интернет-магазин Plazasport.ru.

Робот прошелся по ссылками "Добавить в корзину".

Теперь в базе поисковиков страницы вида...

www.магазин.ru/catalog/номер_раздела/номер_товара/?buy=номер_товара

Понятно, что нужно спрятать от роботов ссылку "Добавить в корзину".

Но как мне с помощью robots.txt вычистить мусор из базы поисковиков?

На Холодильнике.ру я видел нужные конструкции robots.txt. Работают ли они?

ER
На сайте с 19.11.2002
Offline
107
#8

С помощью мета-тэгов можно запретить индексацию.

6M
На сайте с 23.06.2004
Offline
0
#9

А как с помощью mod_rewrite запретить к индексации определенные страницы?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий