Как закрыть от индексации урл по маске в robots.txt

DP
На сайте с 30.10.2006
Offline
96
2724

Доброе время суток!

Встретился с такой ситуацией, когда на сайт приходят робот Яндекса по ссылкам с другого сайта и в индекс стали попадать дубли страниц, к примеру как внизу - штук так 100

www.tram-pam-pam.ru/index.php?action=BUY&id=4547895454

Как правильно закрыть в robots.txt от индексации URL, что бы не индексировало после www.tram-pam-pam.ru/index.php ?

Голову сломал уже :gm:. Хочется быть уверенным наверняка.

Может так можно ?

Disallow: /index.php*

Только не уверен. По такой схеме закроется от индексации index.php и когда он выпадет из индекса не отвалится ли главная страница?

Спасибо

S2
На сайте с 07.01.2008
Offline
611
#1
dzogchen_po:
По такой схеме закроется от индексации index.php и когда он выпадет из индекса не отвалится ли главная страница?

Если у вас главная страница site/index.php то отвалится, если без индекса, то нет.

Проверяйте тут: http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml

В нижнее окно кидайте и то что нужно закрыть и то что нужно оставить. Затем проверяйте и смотрите, что запрещено, а что разрешено.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
DP
На сайте с 30.10.2006
Offline
96
#2

Ок, спасибо. Что-то не сообразил в вебмастере проверить☝. Спасибо 🍾

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий