Yuto

Yuto
Рейтинг
37
Регистрация
24.12.2009
sasha_mtrx:
Disallow: /vorota/
allow: /vorota/*
Disallow: /vorota/*/*

проверяйте должно сработать

Что-то подобное уже было... Не очень хочется рисковать выпадом из индексации, оставлю пока как есть. Просто проблема в том, что бы вы не написали вроде dd или dde, все равно откроется одна и таже страница, надо чтобы Яндекс и Google не индексировали их.

Yuto:
Могу предложить сбыт стевиозида, один из родственников занимается

Похоже никого не интересует здоровый образ жизни и натуральный сахарозаменитель, в особенности актуальный для диабетиков... 😡

Могу предложить сбыт стевиозида, один из родственников занимается

Здравствуйте, форумчане.

Я совсем запутался читая мануалы Яндекса и Google о том, как правильно составить свой robots.txt

Меня интересует не совсем стандартный вопрос, с основами robots все ясно, а вот как быть если:

1. Я хочу заблокировать раздел http://vorota-style.ru/vorota/ и все что заканчивается после /vorota/ЛЮБОЙ РАЗДЕЛ/, например, /vorota/ЛЮБОЙ РАЗДЕЛ/dd.

2. Но при этом мне нужны все разделы (выдели жирным) /vorota/ЛЮБОЙ РАЗДЕЛ/

Подскажите как быть, очень нужна ваша помощь, а то Яша иногда индексирует такие страницы, как, например, /vorota/ЛЮБОЙ РАЗДЕЛ/dd, причем она идентична http://vorota-style.ru/vorota/

аrmagedon:
Disallow: */vorota/* - выплюнет из индекса всё, содержащее в своем URL /vorota/

Мне нужно все, кроме 4 страниц

/vorota/rulonnye-vorota/

/vorota/raspashnye-vorota/

/vorota/otkatnye-vorota/

/vorota/podemno-sektsionnye-vorota/

аrmagedon:
Вообще читайте http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml тут инфы с головой!

прочел весь и только после сюда обратился, т.к. нет именно моего случая и методом тыка не получается.

---------- Добавлено 30.12.2013 в 04:36 ----------

аrmagedon:
В Яндекс.вебмастере есть инструмент проверки роботса, если в чем-то сомневаетесь - юзайте его.
Он показывает 1...25, когда загружал файл. И все... ничего более...

Здравствуйте, форумчане.

Я совсем запутался читая мануалы Яндекса и Google о том, как правильно составить свой robots.txt

Меня интересует не совсем стандартный вопрос, с основами robots все ясно, а вот как быть если:

1. Я хочу заблокировать раздел http://vorota-style.ru/vorota/ и все что заканчивается после /vorota/ЛЮБОЙ РАЗДЕЛ/, например, /vorota/ЛЮБОЙ РАЗДЕЛ/dd.

2. Но при этом мне нужны все разделы (выдели жирным) /vorota/ЛЮБОЙ РАЗДЕЛ/

Подскажите как быть, очень нужна ваша помощь, а то Яша иногда индексирует такие страницы, как, например, /vorota/ЛЮБОЙ РАЗДЕЛ/dd, причем она идентична http://vorota-style.ru/vorota/

Решил тоже попробовать. Сделаете для маленького интернет магазина? Страниц около 5.

К вам блин с душой, а вы... вот блин как всегда, не делай добра... зла не получишь...

sema_87, блин, вы так говорите, как будто я загнул цены до рублей 600... Я предлагаю возможность купить недорогие домены, вот и все :)

Я вот, например, всегда сомневался, что вообще существуют такие домены по 100р. :) было время..

Всего: 97