ROBOTS.TXT - запретить .../?catalogue=&status=, но не ../?catalogue=

123
Гриша К.
На сайте с 14.12.2005
Offline
28
#11

Bomass, я ненайду где, можете привести кусочек кода.

Мне непонятно как описать такую строку /cat/?catalogue=&status=

или надо писать ?catalogue=&status=Delete и ?catalogue=&status=No, т.е. описывать каждое значение параметра, или написать ?catalogue=&status=*

Вот как? Где там написано.

FlyAway, спасибо я вобщем-то понял.

Но вот я например не хочу, чтобы пользователь знал какие у меня есть некоторые папки запрещенные, чтобы он их в robots.txt не мог увидеть.

Вот если например есть папка /catalog/ и в ней много подпапок и файлов. чтобы мне запретить все ее содержимое, мне надо в каждом файле описать мете-теги соответсвенно или есть какие-то варианты.

FlyAway
На сайте с 01.06.2005
Offline
439
#12

Гриша К., в этом случае есть несколько вариантов.

1. Запретить роботсом (тогда увидят)

2. Запретить в мете - не увидят

3. Сделать какой-нибудь доступ с паролем

вообщем тут всё в ваших руках

Сердюченко Андрей (http://www.serdyuchenko.ru/) Масонская ложа — SЕ-Team.ru (http://goo.gl/YIjV6h) :)
Гриша К.
На сайте с 14.12.2005
Offline
28
#13

FlyAway, спасибо за разъяснения.

Я вот только что вот, что заметил, как же мне описать в robots.txt страницу с парметрами /cat/?catalogue=&status=, т.е. запретить надо все тсраницы где есть 'status', если catalogue= может иметь разные значения (например ?catalogue=123 или ?catalogue=proverka).

Вот например что-то типа * можно здесь применять (/cat/?catalogue=*&status=, )?

FlyAway
На сайте с 01.06.2005
Offline
439
#14

Гриша К., я советую использовать модуль mod_rewrite - помогает преобразовывать урлы, т.е. переписывать их "на лету".

читать:

http://httpd.apache.org/docs/mod/mod_rewrite.html

http://www.engelschall.com/pw/apache/rewriteguide/

http://www.egoroff.spb.ru/portfolio/apache/mod_rewrite.html

http://sitemaker.ru/technologies/webserver/mod_rewrite/

Гриша К.
На сайте с 14.12.2005
Offline
28
#15

FlyAway, спасибо за информацию буду читать и разбираться.

Пока что в мета-теги запретил, надеюсь, что yandex, rambler и google не проигнорирую эту конструкцию.

Потому что, если просто добавить такую страницу на регистрацию в Яндекс, то выдается сообщение, что сртраница принята на регистрацию. Вот теперь подожду, посмотрю будет ли она индексироваться.

M
На сайте с 13.09.2005
Offline
2
#16

Disallow: status

Гриша К.
На сайте с 14.12.2005
Offline
28
#17

Medreces, спасибо за ответ.

Вы имеете в вид, что для того чтобы поисковики не игнорировали роботс в метатегах нужно добавить в файл robots.txt Disallow: status, т.е.

User-agent: *

Disallow: /papka1/

Disallow: /papka2/

Disallow: status

Roman_HuBoss
На сайте с 02.12.2003
Offline
81
#18
Гриша К.:
Bomass, я ненайду где, можете привести кусочек кода.
Мне непонятно как описать такую строку /cat/?catalogue=&status=
или надо писать ?catalogue=&status=Delete и ?catalogue=&status=No, т.е. описывать каждое значение параметра, или написать ?catalogue=&status=*
Вот как? Где там написано.

Читаем официальные доки http://www.robotstxt.org/wc/norobots.html

Там все достаточно внятно про директиву Disallow написано.

"Disallow

The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved. For example, Disallow: /help disallows both /help.html and /help/index.html, whereas Disallow: /help/ would disallow /help/index.html but allow /help.html."

Таким образом, в Вашей ситуации наиболее удобоваримым станет следующий вариант:

Disallow: /cat/?catalogue=&status

Гриша К.
На сайте с 14.12.2005
Offline
28
#19

Roman_HuBoss, спасибо за ответ.

По ссылке я ничего не помнял.

Вот это вариант:

Disallow: /cat/?catalogue=&status

Не подойдет для такой страницы /cat/?catalogue=123&status

Использую запрет в мета-дескрипторе.

B
На сайте с 07.10.2004
Offline
114
#20
Гриша К.:
Вот если например есть папка /catalog/ и в ней много подпапок и файлов. чтобы мне запретить все ее содержимое, мне надо в каждом файле описать мете-теги соответсвенно или есть какие-то варианты
FlyAway:
1. Запретить роботсом (тогда увидят)
2. Запретить в мете - не увидят
3. Сделать какой-нибудь доступ с паролем

4. Отдавать код ответа сервера, отличный от 200

Гриша К.:
Я вот только что вот, что заметил, как же мне описать в robots.txt страницу с парметрами /cat/?catalogue=&status=, т.е. запретить надо все тсраницы где есть 'status', если catalogue= может иметь разные значения (например ?catalogue=123 или ?catalogue=proverka).

1. поменять местами параметры и в роботсе написать

Disallow: /cat/?status=

2. if($catalogue&&$status){header("HTTP1.1 404 Not Found");};

Примерно так

Бородин Антон. 411-22-05, icq 199228260, bomass [at] ya.ru Домен .ru за 6,3$ (http://webst.ru/?id=146)
123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий