быстрые ссылки появляются только если ты в топ2-топ3
чтобы закрыть от индексации страницы содержащие в урле ref= и _openstat=
писать нужно так
100% работает
User-agent: *
Disallow: /*ref=
Disallow: /*_openstat=
User-agent: Yandex
ради нескольких ссылок я бы не стал заморачиваться
сори у меня ООО
ИП на УСНО 6% плюс обналичивание.
я примерно написал. Налоги это другая тема
проверяешь сеобюджетом
береш максимальную стоимость
включаешь здравый смысл(умножаешь на 2)
если платишь налоги, закладываешь ещё 15%
вот :)
Яндекс ответил, вопрос решился.
Может кому тоже пригодится. Полезная информация.
Здравствуйте!
Если Вы хотите запретить нашему роботу индексировать страниц вида
www.site.ru/?ref=xxx , директивы, указанные Вами, подойдут.
Все такие страницы пропадут из поиска и не будут индексироваться роботом.
Если же от параметра ref контент не меняется и Вы хотите оставить в поиске
только один вариант такой страницы, например, из
www.site.ru/?ref=1
www.site.ru/?ref=2
www.site.ru/?ref=3
оставить в поиске только www.site.ru/?ref=1 , Вы можете использовать
директиву Clean-param.
вот🚬
редирект не подойдет, т.к. по идентификатору ref покупка товара засчитывается партнеру.
поидее да
а кто-нибудь пробовал так делать?
Эксперимент может дорого обойтись(
а вот официальный ответ яндекса
Здравствуйте, Михаил!
Нет, директива "Disallow: /*ref=" запретит нашему роботу индексировать
страницы сайта.
Проверять корректность файла robots.txt можно на странице
http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml
Просим Вас высказать свое мнение о полученном ответе:
http://feedback.yandex.ru/
--
С уважением, Платон Щукин
Служба поддержки Яндекс.Ру
http://help.yandex.ru/
Михаил написал(а):
> [ www.site.ru ]
> Добрый день!
>
> Нам необходимо убрать из индекса партнерские страницы с сайта, так как там
> дублируется контент основных страниц.
> Если мы напишем в robots.txt
> User-agent: Yandex
> Disallow: /*ref=
> Пропадут ли страницы http://www.site.ru/?ref=vasya из индекса?
> Очень нужна ваша помощь?
> Михаил
Такое ощущение, что они не совсем поняли суть вопроса(((
никто ссылки закрывать в роботсе не собирается
Речь идет о страницах!
Вы немного не догоняете. Ответ я уже получил. Спасибо грому.