Почему эта директива разрешает сканировать другие разделы?
Добрый день,
robots.txt выглядит так:
User-Agent: *
Disallow: /bitrix/
Disallow: /cgi-bin/
Disallow: /inc/
Disallow: /include/
Disallow: /personal/
Disallow: /registration/
Disallow: /search/
Disallow: /upload/
Disallow: /verstka/
Disallow: /*?action=
Disallow: /*?FILTER_TYPE=
Disallow: /*?SECTION_CODE=
Disallow: /articles/
Sitemap: http://site.ru/sitemap.xml
Host: www.site.ru
User-Agent: Googlebot
Allow: /upload/iblock
User-Agent: Googlebot-Image
Яндекс (проверка через Вебмастер) правильно отображает, что страница /articles/, например, или любая другая, запрещена. Гугл же (проверка также через Вебмастер Гугла) утверждает, что страница доступна:
chrome-extension://jhcdlkgjiehgpnpolkbnmpffjodigbkb/editor.html
И также со всеми остальными страницами, например /search/, /include/ и так далее.
Подскажите, пожалуйста, где ошибка в файле robots, почему Гугл отвечает, что страницы доступны?
Заранее спасибо.