Помогите с роботстом и Гуглом!

[Удален]
300

Сначала гугл все проиндексировал.

Потом все выкинул.

Вот роботс

User-agent: *

Disallow: *route=account

Disallow: *route=affiliate

Disallow: *route=checkout

Disallow: *route=product

Disallow: *search

Disallow: *?

Disallow: /admin

Disallow: /catalog

Disallow: /download

Disallow: /system

Disallow: *?sort=

Disallow: *&sort=

Disallow: *?order=

Disallow: *&order=

Disallow: *?limit=

Disallow: *&limit=

Disallow: *?filter_name=

Disallow: *&filter_name=

Disallow: *?filter_sub_category=

Disallow: *&filter_sub_category=

Disallow: *?filter_description=

Disallow: *&filter_description=

Disallow: *?tracking=

Disallow: *&tracking=

disallow: *?route=*

disallow: *?sort=*

Disallow: /*?sort=*

Пишет

Описание веб-страницы недоступно из-за ограничений в файле robots.txt.

MC
На сайте с 09.04.2012
Offline
125
#1

Так выкинул или пишет?

Много раз уже говорили, что гуглу плевать на директивы.

Мне кажется, лучшая тактика- автоматом прописывать у таких страниц <meta name="robots" content="noindex, nofollow" />, у "фильтровых" как вариант каноникал. Только после этого в роботс надо снова разрешить сканирование таких страниц. наверное и это не панацея, но кажется надёжнее, да поправят меня ГуглоГуру

Disallow: /catalog

- покажите сайт, а то как-то подозрительно.

Alipapa
На сайте с 01.02.2008
Offline
234
#2

Оужос. Clean-param вам незнакомо? А для гугла те аргументы, которые нужно игнорировать, в вебмастерсе можно указать

Биржа фриланса - простая и удобная (http://kwork.ru/ref/2541)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий