Наложили, как обычно, за сумму автоматических подозрений, среди которых может оказаться и чего-нибудь такое, чего на новом может не возникнуть и при полном повторении старого, но без некоторых событий, размазанных во времени, типа: была куча HTML-страниц, стала куча HTML+JS. Заливайте сразу HTML+JS... для бота нет события: куча HTML — куча HTML+JS
А события или факты в человеческом понимании бот не различает, только их вероятности.
Прямо — нет.
/ru/forum/645066
http://www.google.com/search?q=Description+site:forum.searchengines.ru&ie=utf-8&oe=utf-8
В какую сторону? Как измеряли?
http://www.google.com/search?q=site:mail.yandex.ru&hl=ru&prmd=ivns&ei=XIpLTuvYLIGdOuGYvLoI&start=90&sa=N
http://mail.yandex.ru/robots.txt
http://www.google.com/search?q=site:yandex.ru/404.html&hl=ru&prmd=ivns&filter=0
Это может вносить лишнюю путаницу.
А мне после ответа ТП казалось, что... не в ссылках дело. 90% времени в индексе (и в выдаче) была страница с нижним регистром, но ссылка из выдачи всегда вела на нижний регистр. Обе были только когда в индексе оказалось два зеркала: с www. и без www.
Осталось проверить /рЕгистр /регИстр
К этим проблемам добавляется желание ПС как можно скорее донести найденное, не следуя стандартам, херя Disallow: /page ... пора бы иски вчинять, хотя закона нету, наверное? :-)
ps И W3C умудряется (из лучших побуждений, наверное) закладывать некоторые противоречия (не про ПС), заранее непредусмотренные идиотизмы, которые придётся разруливать позже.
Распишите всё подрооообнее.
Если подразумеваются урлы, отличающиеся только региСтром|регистром, то вот прошлогодний ответ ТП:
Т.е. дело не в релевантности...
В выдаче при этом ещё чудеса творились >>>
А сие велика тайна есть.
Возможно, что просто так получилось... и лечить это незачем типа.
Вам в выдачу надо, вы за отсуствием дубЛей|дублей и следите.
А в запросах ПС регистр не учитывают...
Сомневаюсь, но не проверял.
ps Тестовых страничек было всего 2: уникурл · униКурл — во второй начало истории.
В G они когда-то присутствовали обе (c &filter=0), потом только одна. А потом пропал интерес... но осталось ощущение, что что-то тут не так.
Если чего ещё нароете, отпишитесь.
Вот ещё заупячили:
Сеонисты+копрорайтеры неизлечимы. Но мне их всех не жалко.
Отвыкайте от HTML Примеры в индексе. В кэшах посмотрите... там правда враньё:
Да, играет... и там.
А в запросах нет: inurl:"?tab=siterate"
Вот и об чём это всё?
Ужос.
Гугл не учитывает <noindex> это только Яндексу... закрыть текст, как советовал П.Щукин... но как при этом можно расчитывать на учёт текста ссылки? Я бы не расчитывал.
После введения rel=nofollow для Яндекса, <noindex> перестал закрывать ссылку (только её текст), и ссылки из подписей на серче (а они в <noindex>) стали видны в ЯВМ. Осталось проверить на уникальном анкоре...
ps Бросайте вы это всё, ничего хорошего не спланируете.
pps Никогда почти меня не устраивает навигация на сайтах, особенно избыточная, в ней просто теряешься.
<noindex> не избавляет от «передачи веса», только скрывает текст от поиска. В подпись себе сцылку воткните и увидите в ЯВМ Серч в бэках.
Но вы же с картинками теряете внутреннее ссылочное... http://help.yandex.ru/webmaster/?id=1108948
а меню не обязано быть сквозным (для бота).
А Гугль альты ищет (в Я вбейте сами, а то тут соврут из вредности)... и зачем вам эти альты? Картинки-то можно в роботсе закрыть, но вот альты...
В пределах HTML неизбежны проблемы с малым количеством контента при великой навигации. Cмотрите как яндексоиды это прячут http://mail.yandex.ru/neo2/3.2.29/163361542/_jane.ru.xsl даже когда им индекситься не надо.