http://yandex.ru/yandsearch?text=%D1%83%D0%B7%D0%BD%D0%B0%D0%B2%D0%B0%D1%82%D1%8C+%D0%BF%D0%BE%D1%87%D1%82%D0%B8+%D1%83%D1%81%D0%BB%D1%83%D0%B3%D0%BE%D0%B9+%D0%BE%D1%82%D0%B5%D0%BB%D1%8F,+%D0%B3%D0%B4%D0%B5+%D0%B5%D1%81%D1%82%D1%8C+%D0%B2%D0%BE%D0%B7%D0%BC%D0%BE%D0%B6%D0%BD%D0%BE%D1%81%D1%82%D1%8C+%D1%80%D0%B0%D0%B7%D0%B1%D0%B8%D1%80%D0%B0%D1%82%D1%8C+%D0%B2%D0%BE+%D0%B2%D0%BA%D1%83%D1%81%D0%B5+%D0%BB%D0%B8%D1%86%D0%B5%D0%B2%D0%BE%D0%B9+%D0%BC%D0%B8%D1%88%D1%83%D1%80%D0%B0,+%D0%B1%D0%B5%D1%81%D0%BF%D1%80%D0%B8%D1%87%D0%B8%D0%BD%D0%BD%D0%BE+%D1%82%D0%B0%D0%BA%D0%B6%D0%B5+%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D1%8B+%D0%B3%D0%BE%D1%81%D1%82%D0%B8%D0%BD%D0%B8%D1%86%D1%8B
А ПС уже умеют определять качество контента? Их создатели этого пока не заявляли. Чаще про некачественный говорят.
Давеча в бидэ так и насрали... потом сменили на тире.
У вас есть подтверждение того, что ПС это читают?
А то вот вам пример тупости валидатора... подсказка: нельзя делать то, что он говорит, работать не будет во всех браузерах, это же не xhtml
Некогда им там краснеть... хоть и гад, но не врёт... в том-то и беда, что для него это правда! Легче же поверить своим алгоритмам, чем этим вероятным спамерам. А уж лезть проверять деяния священных алгоритмов глазами — понадобится 100 человеко-лет. Поэтому, чаще шлётся отписка — автоматом или за секунды.
Не до вас...
А она на человечьем языке и сказана быть не может.
Программеры что-то пытаются сделать, ориентируясь на какие-то принципы.
То, что получается — является некоторым механическим отражением, но не воплощением тех принципов.
Ждите ответа:
А к чему конкретно это может привести?
А их научились с хорошей точностью делить на комм | некомм?.. запросы, а не кишки.
Ну, если верите, что это ссылки для ПС, а не просто текст урлов, то можно поступить очень просто: делаете на сайте сквозняк на сайтмап, а в нём упоминаете только одну страницу, на которую больше не ведёт ни одна ссылка. И посмотреть как ищется. И отпишитесь тогда.
... останется и поймёт, что зря это всё.
Другое дело, что монополисту в долговременном плане выгоднее было бы учитывать многое из того, что не-монополисту не кажется выгодным. Например:
сколько белых и пушистых навсегда перестанут быть таковыми от механических ошибок священных алгоритмов?
сколько можно было бы съэкономить на пиаре своих сервизов, т.е. сколько можно потерять бес/платных пиарщиков, совершая грубые действия (хотя они вам смогли бы очень убедительно объяснить, что действуют правильно).
Это XML-файл с текстами урлов.
http://www.google.com/search?ie=UTF-8&hl=ru&q=inurl:sitemap.xml
Или у вас есть возможность показать, что это именно ссылки записаны так?:
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc> http://www.google.com/ </loc> <priority> 1.000 </priority> </url> <url> <loc> http://www.google.com/3dwh_dmca.html </loc> <priority> 0.5000 </priority> </url> </urlset>
А если просквозить robots.txt ?