Navsikaya

Рейтинг
1
Регистрация
02.07.2015

Почему эта директива разрешает сканировать другие разделы?

Добрый день,

robots.txt выглядит так:

User-Agent: *

Disallow: /bitrix/

Disallow: /cgi-bin/

Disallow: /inc/

Disallow: /include/

Disallow: /personal/

Disallow: /registration/

Disallow: /search/

Disallow: /upload/

Disallow: /verstka/

Disallow: /*?action=

Disallow: /*?FILTER_TYPE=

Disallow: /*?SECTION_CODE=

Disallow: /articles/

Sitemap: http://site.ru/sitemap.xml

Host: www.site.ru

User-Agent: Googlebot

Allow: /upload/iblock

User-Agent: Googlebot-Image

Allow: /upload/iblock

Яндекс (проверка через Вебмастер) правильно отображает, что страница /articles/, например, или любая другая, запрещена. Гугл же (проверка также через Вебмастер Гугла) утверждает, что страница доступна:

chrome-extension://jhcdlkgjiehgpnpolkbnmpffjodigbkb/editor.html

И также со всеми остальными страницами, например /search/, /include/ и так далее.

Подскажите, пожалуйста, где ошибка в файле robots, почему Гугл отвечает, что страницы доступны?

Заранее спасибо.