Вопрос по robots.txt

12
Dimoogle
На сайте с 08.01.2007
Offline
100
875

Приветствую. У меня ряд вопросов на, которые очень бы хотелось получить помощь. Есть один главный вопрос и ряд побочных.

Скажите если я в robots.txt пропишу следующую информацию:

User-Agent: *

Disallow: /?

Значит я закрою все страницы начинающиеся с /? или я рискую закрыть весь сайт от индексации?

Мне в общем нужно закрыть все что начинается с /? например есть такой тип страниц:

site.ru/?weight=7 есть такой типа страниц /aaa/?weight=5 То есть по большому счету мне надо закрыть вообще все страницы начинающиеся с /? а не только страницы начального уровня, но так же и все страницы вида site.ru/1/2/?.......

То есть подскажите пожалуйста что мне прописать в роботс, чтобы закрыть вообще любые страницы в которых присутствует /? не важно какого они уровня я сомневаюсь между тремя вариантами:

1) Disallow: /?

2) Disallow: /?*

3) Вообще не подходит, иначе это будет аналогом Disallow: / и закроет весь сайт

вариант типа Disallow: /?weight=* не рассматривают, по мимо weight может быть еще куча параметров, а главное не только директории / но и директории /1/?...

Заранее спасибо. Хотелось бы выслушать мнение по первому вопросу, закрою ли я все страницы содержащие /? не важного какого уровня, если укажу Disallow: /?

ГП
На сайте с 12.09.2008
Offline
208
#1

Надеюсь, Ваша подпись с работой не связана?)

Куплю сайт с доходом от 100кр.(не от ссылок).
kimberlit
На сайте с 13.03.2007
Offline
370
#2

Disallow: /*?

Dimoogle
На сайте с 08.01.2007
Offline
100
#3

kimberlit, Что то мне подсказывает, что таким образом мы закрываем все после / а параметр ? уже не играет роли

FlyAway
На сайте с 01.06.2005
Offline
439
#4

User-Agent: *

Disallow: /?

вполне подойдет

Сердюченко Андрей (http://www.serdyuchenko.ru/) Масонская ложа — SЕ-Team.ru (http://goo.gl/YIjV6h) :)
kimberlit
На сайте с 13.03.2007
Offline
370
#5

Dimoogle, вам виднее... Наверное.

FlyAway:
User-Agent: *
Disallow: /?

вполне подойдет

"Да ну нафег"

И это

Dimoogle:
есть такой типа страниц /aaa/?weight=5

закроет?

FlyAway
На сайте с 01.06.2005
Offline
439
#6
kimberlit:
закроет?

Это нет. :)

K
На сайте с 31.01.2001
Offline
737
#7
Dimoogle:
Мне в общем нужно закрыть все что начинается с /?

Ну и закройте.

Dimoogle:
Значит я закрою все страницы начинающиеся с /?

Да.

Dimoogle:
или я рискую закрыть весь сайт от индексации?

Мы же не знаем, какие есть страницы на вашем сайте.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
S
На сайте с 23.01.2006
Offline
160
#8

Для пущей безопасности можно написать такую конструкцию. Кстати, User-agent: * - это вообще все роботы, а регулярные выражения понимают по моему только Яндекс и Гугль. Так что смотрим ниже:

User-agent: *

Disallow: /?

User-agent: Googlebot

Disallow: /?

Disallow: /*/?

User-agent: Yandex

Disallow: /?

Disallow: /*/?

В общем, где-то так маски можно построить.

Для роботов, кроме Яндекса и Гугля, к сожалению, придется писать весь список. Либо как вариант, дополнить проверкой на наличие get-переменной (-ных) всех или запрещенных проинициализированных в программном коде, и при соблюдении условия в <head> страницы добавлять <meta name="robots" content="noindex,nofollow" />

kimberlit
На сайте с 13.03.2007
Offline
370
#9
sPoul:
User-agent: Yandex
Disallow: /?
Disallow: /*/?

Зачем две, если можно одну?

kimberlit:
Disallow: /*?
A
На сайте с 13.06.2010
Offline
6
#10

Люди а у меня одного только как-то неправильно работает анализатор робот.тхт в Яндекс.Вебмастере.

Страницы закрытые в joomla примерно так

Disallow:/index.php/interesn/31-emireal.html

Disallow:/index.php/interesn/68-chastota-shumana.html

Раньше все норм было, последние два дня ввожу эти же страницы в проверку - пишет разрешен к индексированию, плюс они появились в индексе.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий