Скорее всего он уже давно знал, что... придётся писать подобный пост. Может быть они и ещё что-то согласовали. Вот и начались поминки, хотя тело не признано мёртвым.
И откуда взялись вчерашние новости? И если это чьи-то домыслы, то они за сутки типа не опровергнуты:
Вы сами не обсерайтесь, а лучше ответьте на вопрос:
И как же формулируется (с т.з. Бога) основная задача систем контекстной рекламы и рекламы вообще?
Или уж процитировали бы первую фразу:
Может ещё при этом следует забывать о системах, влияющих много на что?
И давайте без человечьих истерик, в гостях у т.н. Бога станет понятно почему.
Дал вот.
Там пахнет свежими изменениями... за рамки этих дебильных рекомендаций (да, я считаю их неправильными). Если делать строго по рекомендациям, то в индексе страница forum.searchengines.ru/#!hash, смотрим в кэш и видим:
В индексе Яндекса есть страницы с #!
Посмотрим в индекс Гугля.
Кэш отличается от самой страницы.
Может быть автоматом и не поймают (если вообще так ловят), но вам было бы не трудно отдавать и боту, и посетителю одинаковый HTML-код. Короткий. А браузер уже выполнял бы JS, перекидывал бы на #адрес... т.е. и прелести неперезагрузки страницы используются (растягивая первую загрузку), и формальностей не нарушено, и использовать #! не нужно.
Сгенерённый дескрипшн даёт менее интересный искателю сниппет, чем текстовый фрагмент.
Проблема в дублях.
Если же лечить симптомы, то надо уникализировать описалова дублей (чтобы WMT не ругался).
А если у вас очень много страниц, то дубли (даже с каноникалом) настолько замедлят (пере)индексацию, что трудно будет дождаться пока WMT перестанет ругаться.
В своих «10 аргументов в пользу XSLT» они так и не объяснили толком, зачем его применять на стороне сервера.
Так в чём же проблема для вас?
Для WMT: Повторяющееся метаописание, но не дубли.
(искать будем там, где светлее, а не там, где потеряли)
Вот именно: если, то скорей всего...
А про изменения в общем алгоритме пиарщики Гугла уж столько наговорили...
А то, что известно про PR — основано на предположениях. Хотя реальный алгоритм расчёта PR — с какими-то сокращениями (с отличиями от идеальной модели).
Нужны эксперименты. Возможно, не на основе оптимизаторских представлений про PR.
А пока, верующим в это всё придётся купить тИЦу.
(но дешевле было бы прочитать то, что изначально обещали создатели)
А то, что у кого-то появляются пузомерки, не означает прямо, что у кого-то чего-то утекает (в рамках документа или сцайта).
А проблема даже в отсутствии вопроса.
Напомню: в давние времена считалось, что обычная сцылка “передавала” стат.вес + наблюдаляся учёт текста её анкора при ранжировании того документа, на который она вела. А как это со скриптовыми сцылками? А с самыми разными скриптами? А гуглоиды давно хвастаются, что умеют выполнять скрипты.
Типа нужно делать много экспериментов.