Как закрыть в роботс ТОЛЬКО динамические урлы?

Solmyr
На сайте с 10.09.2007
Offline
501
1019

На сайте есть куча уров вида:

/трам-парам/парам-пам-пам.htm

А также:

/трам-парам/парам-пам-пам.htm?param=value

Вопрос состоит в том, как закрыть в robots.txt урлы второго вида, сохранив при этом первые, а также сохранив урды вида:

/трям/трям.php?param=value

P.S. Вариантов /трам-парам/парам-пам-пам очень много, всех их по одному записать в robots нереально.

drima
На сайте с 17.07.2007
Offline
46
#1

Например, так:

User-agent: Yandex

Allow: /трям/трям.php?

Disallow: /трам-парам

No future 4 me
ИМХО
На сайте с 05.01.2008
Offline
42
#2

Solmyr, для яндекса легко.

User-agent: Yandex

Disallow: /трам-парам/*.htm?

ИМХО добавил 09.05.2008 в 18:51

Подробнее здесь

http://help.yandex.ru/webmaster/?id=996567

ИМХО добавил 09.05.2008 в 18:52

drima, так вы запретите

/трам-парам/парам-пам-пам.htm

С уважением, Константин.
Solmyr
На сайте с 10.09.2007
Offline
501
#3

ИМХО, а для гугла сработает?

Почитал http://www.robotstxt.org/orig.html

.... не сработает...

Ладно, я слыхал индексацию еще можно метатегами прикрыть? сейчас поищу как.... Яндекс метатеги запрещающие индексацию учитывает?

ИМХО
На сайте с 05.01.2008
Offline
42
#4

Solmyr, про метатеги не знаю.

Если вы вдруг ищете решение известной проблемы с неотображением ссылок Sape при добавлении параметров, то там другое и достаточно простое решение.

S2
На сайте с 07.01.2008
Offline
611
#5

Учитывает. По одному на страницу. Вроде тут.. А можно для гугла отдельно в роботс запреты прописать: http://www.google.ru/support/webmasters/bin/answer.py?answer=40367

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
Solmyr
На сайте с 10.09.2007
Offline
501
#6
ИМХО:
Если вы вдруг ищете решение известной проблемы с неотображением ссылок Sape при добавлении параметров, то там другое и достаточно простое решение.

Когда писал вопрос, так и думал что возникнут ассоциации с этой проблемой в сапе :) нет не для этого.

Хотя если не влом, тыкните куда смотреть, как решается та проблема с сапой :) :) :)

Слава Шевцов
На сайте с 23.07.2005
Offline
370
#7
Solmyr:
/трам-парам/парам-пам-пам.htm?param=value

Вопрос состоит в том, как закрыть в robots.txt урлы второго вида, сохранив при этом первые, а также сохранив урды вида:
/трям/трям.php?param=value

Disallow: *?*

Спасёт?

Неизменность точки зрения неизменно порождает иллюзию понимания.
Solmyr
На сайте с 10.09.2007
Offline
501
#8
Слава Шевцов:
Disallow: *?*
Спасёт?

Спасет, если гугл это поймет. Уже разобрались, что Яндекс поймет. А вот гугл....

ИМХО
На сайте с 05.01.2008
Offline
42
#9

Solmyr, та штука решается редиректом со страниц с параметрами на страницы без параметров, вас это почти наверняка не устраивает.

Решение которое предложил Слава Шевцов запретит также к индексации /трям/трям.php?param=value.

Слава Шевцов
На сайте с 23.07.2005
Offline
370
#10

ИМХО, да, не заметил, что их нужно сохранять.

Disallow: *html?*

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий