Слишком большие robots.txt (более 32 Кб) считаются полностью разрешающими, то есть рассматриваются аналогично:
User-agent: Yandex
Disallow:
Карту сайта Яндекс не будет считать спамной страницей.
можно в роботсе закрыть по маске
http://help.yandex.ru/webmaster/?id=1120755 - возможно поможет
сделайте текcтовое меню и закройте его в noindex
и что у вас за меню такое неуникальное? большинство меню на сайте это: О компании, Услуги, Акции, Контакты, Цены и т.п. Раньше сайтам от таких меню плохо не было.
У Вас весь сайт закрыт в robots.txt вот этой строчкой Disallow: /category