Все вопросы по robots.txt

BLIKSSS
На сайте с 11.04.2013
Offline
84
#491

Disallow: /*?&size=

Disallow: /*?&sort=

И проверь тут https://webmaster.yandex.ru/robots.xml впиши список url и посмотри правильно или нет и подредактируй если понадобится

C
На сайте с 18.06.2012
Offline
48
#492
BLIKSSS:
Disallow: /*?&size=
Disallow: /*?&sort=

И проверь тут https://webmaster.yandex.ru/robots.xml впиши список url и посмотри правильно или нет и подредактируй если понадобится

Спасибо, запретил, но все равно ?sort=desc&size=20 - открыт к индексации, если применяешь сразу два фильтра.

Может?:

Disallow: /*?size=

Disallow: /*?sort=

BLIKSSS
На сайте с 11.04.2013
Offline
84
#493

Попробуй добавить строчку

Disallow: /*?sort=desc&size=

A
На сайте с 05.04.2007
Offline
75
#494

Добрый день!

Запретил в robots.txt дубли страниц директивой:

Disallow: /*?PAGE

Но теперь не индексируется форум с комментариями и отзывами о товаре:

мой сайт/forum-review.php

мой сайт/forum-review.php?PAGE_NAME=list&FID=1 (темы)

мой сайт/forum-review.php?PAGE_NAME=read&FID=1&TID=5&TITLE_SEO=5-(наименование товара)

Как исправить ситуацию? Что прописать в robots.txt для индексации форума?

S
На сайте с 09.11.2015
Offline
35
#495

Allow: /forum-review.php?

N9
На сайте с 08.12.2014
Offline
9
#496

Помогите пожалуйста кто-то разобраться с этой ситуацией

Реально очень много дублей и скрыть не удается

/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=15&order=color

/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=30&order=color

/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=30&order=name

/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=45&order=color

/bukety-iz-roz/korallovyye-rozy.html?___from_store=ru&___store=ua&dir=asc&limit=45&order=name

Желаю всем добра!
A
На сайте с 25.10.2014
Offline
99
#497
RI
На сайте с 17.09.2015
Offline
15
#498
Nikolay91:

Подскажите в чем ошибка. Буду очень благодарен.
Спасибо заранее.

Насколько я знаю как не закрывай в роботсах - все равно будет висеть в дополнительном поиске.

Попробуйте в роботсах оставить открытыми, а на таких страницах прописать ноуиндекс/ноуфоллоу

Arhangell:
зачем его блокировать гугл плохо к этому отнесётся

А это почему? Дубли то по умолчанию мусор для поиска

BooblikBBW
На сайте с 01.07.2014
Offline
89
#499

Disallow: /*.html?*?___from_store=ru=

Disallow: /*.html?*?___from_store=ua=

По поводу ? возможно не уверен

V
На сайте с 14.04.2011
Offline
217
#500

можете ещё добавить мета тег noindex nofollow

как вариант.. чтоб быстрее выкинуло

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий