nata_pod

Рейтинг
4
Регистрация
29.06.2011

Слишком большие robots.txt (более 32 Кб) считаются полностью разрешающими, то есть рассматриваются аналогично:

User-agent: Yandex

Disallow:

SASHL:
но в ЯК его не принимают объясняя тем что на сайте есть спамные страницы. Есть подозрения на карту.

Карту сайта Яндекс не будет считать спамной страницей.

можно в роботсе закрыть по маске

сделайте текcтовое меню и закройте его в noindex

и что у вас за меню такое неуникальное? большинство меню на сайте это: О компании, Услуги, Акции, Контакты, Цены и т.п. Раньше сайтам от таких меню плохо не было.

У Вас весь сайт закрыт в robots.txt вот этой строчкой Disallow: /category