Но если условно много переходов с вашего сайта на сайт с метрикой, то за слив трафа прохиляет... со всеми вытекающими неприятностями.
>>>тыц<<<
клицк
Это придётся сделать... да так, чтобы урлы проиндексированных страниц остались прежними.
Просто глупо показывать ПС и искателям одно и то же на многих страницах, в выдаче будет одна, остальные в доп результатах. Следует сделать так, чтобы в <title> <h1> и текст (статика HTML) попадали потенциально разные имена/названия/комменты и сами картинки тоже (с заполненными альтами и с транслитом в имени файла), а навигация и прочие пояснения — были в скриптах (и пр. AJAX)... прикрыты от ботов, пока.
По ссылке выше заходите в кэш любой страницы... и заменяете слова в форме запроса на что-нибудь уникальное из выводимого скриптом... и выясняете. Результат был разным в разное время и зависел от скрипта.
А это было когда как. Иногда гуглилось, иногда нет.
Ну понимаете. И зачем поисковикам эти дубли? Спрятали комментарии, закройте и страницы в роботсе. Но если кто сошлётся на такую страницу, то в выдаче она будет. Бонус.
На тему выполнения JS и XML у ПС зреет проблема:
Пока ПС не спешат их выполнять (экономят ресурсы), вебмастеры там прячут всякие дубли и пр.
Когда же ПС начнут это выполнять (а придётся), то сразу найдут кучу того, чему лучше не искаться.
Ну одна фраза точно отличается, но даже рерайтить не надо почти.
А сколько написано... но всё проще.
funkislota, напишите тут чёткое определение тошноты текста (ну и ссылок).
И какая же?
Наложили, как обычно, за сумму автоматических подозрений, среди которых может оказаться и чего-нибудь такое, чего на новом может не возникнуть и при полном повторении старого, но без некоторых событий, размазанных во времени, типа: была куча HTML-страниц, стала куча HTML+JS. Заливайте сразу HTML+JS... для бота нет события: куча HTML — куча HTML+JS
А события или факты в человеческом понимании бот не различает, только их вероятности.
Прямо — нет.
/ru/forum/645066
http://www.google.com/search?q=Description+site:forum.searchengines.ru&ie=utf-8&oe=utf-8
В какую сторону? Как измеряли?
http://www.google.com/search?q=site:mail.yandex.ru&hl=ru&prmd=ivns&ei=XIpLTuvYLIGdOuGYvLoI&start=90&sa=N
http://mail.yandex.ru/robots.txt
http://www.google.com/search?q=site:yandex.ru/404.html&hl=ru&prmd=ivns&filter=0
Это может вносить лишнюю путаницу.
А мне после ответа ТП казалось, что... не в ссылках дело. 90% времени в индексе (и в выдаче) была страница с нижним регистром, но ссылка из выдачи всегда вела на нижний регистр. Обе были только когда в индексе оказалось два зеркала: с www. и без www.
Осталось проверить /рЕгистр /регИстр
К этим проблемам добавляется желание ПС как можно скорее донести найденное, не следуя стандартам, херя Disallow: /page ... пора бы иски вчинять, хотя закона нету, наверное? :-)
ps И W3C умудряется (из лучших побуждений, наверное) закладывать некоторые противоречия (не про ПС), заранее непредусмотренные идиотизмы, которые придётся разруливать позже.