Для них эта фраза означает: «Ну вот видите, значит они писали для робота, значит наши алгоритмы правильно его выплюнули» :)
Контора ничего не обязана (кроме зарабатывания денег). Они никого не обещали индексировать.
У алгоритмов есть некоторая точность, т.е. без ошибок делать ничего нельзя. Например, нельзя уменьшить количество реального спама в выдаче ниже 4%. Т.е. примерно такой же % белых пушистых (или просто случайных, но допустимых) попадает под каток... хотя, можно и больше, зависит от настроений борцов со спамом. Просто эти борцы не совсем понимают долговременные последствия... в получеловеческих системах механический подход не сработает так, как им хочется. Но они имеют на это право и могут объяснить причины своей уверенности. А разгрести ошибки вручную не могут по причине их количества.
ps ни одного (тестового) сайтика для роботов под фильтр у меня не попало, только те, что для людей. Уже мерещилась необходимость верстать так, чтобы не было похоже на большинство...
Интересно, кто-нибудь выводил из АГС прописыванием доктайпа?
А ПС вообще в него смотрят?.. мне этого замечать не приходилось, хотя поводов было несколько.
Пример грубейшей ошибки.
Если её устранить, в IE возникнут проблемы... просто валидатор тупит в данном случае, это не xhtml
ps Кто-нибудь возраст спецификаций.w3c смотрел? Им АГС не грозит?
Оставьте как было и не трогайте ничего... если лень погуглить слово DOCTYPE
http://yandex.ru/yandsearch?text=%D1%83%D0%B7%D0%BD%D0%B0%D0%B2%D0%B0%D1%82%D1%8C+%D0%BF%D0%BE%D1%87%D1%82%D0%B8+%D1%83%D1%81%D0%BB%D1%83%D0%B3%D0%BE%D0%B9+%D0%BE%D1%82%D0%B5%D0%BB%D1%8F,+%D0%B3%D0%B4%D0%B5+%D0%B5%D1%81%D1%82%D1%8C+%D0%B2%D0%BE%D0%B7%D0%BC%D0%BE%D0%B6%D0%BD%D0%BE%D1%81%D1%82%D1%8C+%D1%80%D0%B0%D0%B7%D0%B1%D0%B8%D1%80%D0%B0%D1%82%D1%8C+%D0%B2%D0%BE+%D0%B2%D0%BA%D1%83%D1%81%D0%B5+%D0%BB%D0%B8%D1%86%D0%B5%D0%B2%D0%BE%D0%B9+%D0%BC%D0%B8%D1%88%D1%83%D1%80%D0%B0,+%D0%B1%D0%B5%D1%81%D0%BF%D1%80%D0%B8%D1%87%D0%B8%D0%BD%D0%BD%D0%BE+%D1%82%D0%B0%D0%BA%D0%B6%D0%B5+%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D1%8B+%D0%B3%D0%BE%D1%81%D1%82%D0%B8%D0%BD%D0%B8%D1%86%D1%8B
А ПС уже умеют определять качество контента? Их создатели этого пока не заявляли. Чаще про некачественный говорят.
Давеча в бидэ так и насрали... потом сменили на тире.
У вас есть подтверждение того, что ПС это читают?
А то вот вам пример тупости валидатора... подсказка: нельзя делать то, что он говорит, работать не будет во всех браузерах, это же не xhtml
Некогда им там краснеть... хоть и гад, но не врёт... в том-то и беда, что для него это правда! Легче же поверить своим алгоритмам, чем этим вероятным спамерам. А уж лезть проверять деяния священных алгоритмов глазами — понадобится 100 человеко-лет. Поэтому, чаще шлётся отписка — автоматом или за секунды.
Не до вас...
А она на человечьем языке и сказана быть не может.
Программеры что-то пытаются сделать, ориентируясь на какие-то принципы.
То, что получается — является некоторым механическим отражением, но не воплощением тех принципов.
Ждите ответа:
А к чему конкретно это может привести?
А их научились с хорошей точностью делить на комм | некомм?.. запросы, а не кишки.