Да, на его морде это всё учтено... как во времена медленного интернета.
Когда они чего-то там выкладывают в паблик, то это не значит, что к этому надо относиться как к чему-то заведомо безошибочному (лучше счесть чем-то типа работы с паствой). Достаточно вспомнить их выдумку с индексацией#!AJAX сайтов... вот уж не надо было так делать. Но это ж Гугл! Ему можно да...
Просто никакими прилинкованными скриптами/стилями и пр. нельзя сократить время первой загрузки. Его так можно только увеличивать... ну вот HTTP такой.
И ещё могу придираться к тому, что часто ползатель не может начать читать, пока догружаются мегаскрипты.
Ну вот на что уходит время при первой загрузке (а у посетителей с поиска — загрузка почти всегда первая), ещё до загрузки картинок, на несколько маленьких файлов.js (по быстрому тырнету, не в час пик):
Примерно так же и создатели всего другого модного забывают о полезности сливания скриптов в один файл (поскольку объединённая сеть — штука медленная). Это им просто скучно помнить. Легче думать, что посетитель будет ходить только по этому быстрому сайту. Сам процесс первой загрузки и отображения — забывается...
Ну и неспроста, как только заходит речь об оптимизации, кому-то вспоминается AJAX, хотя зачем тут асинхронность и xml? Достаточно JS или чего-то ещё... из возможностей браузера.
Ну сравните даты ухода Колмановской и Сегаловича. И что, одну фотку успели убрать, а другую нет?
Cell, ну вы же говорили что-то типа ... если победит Гугл, то 3.14здец всему муравейнику... (хотя вон Эпл-Самсунг захватили рынок гейфонов, а отечество ещё не вымерло). А тут такое упущение в работе с паствой (при явном техническом отставании от конкурента). Или может быть эти страницы вообще зря заводились?.. ну попробуйте это ихним пиарщикам объяснить.
Так уж многие давно так серваки разгружают, а время первой загрузки (в восприятии пользователя) часто при этом только растягивается. Вот о восприятии никто не думает.
Это возможность, но ПС не обязана. А в свои расчитаваемые веса бот может верить... как в реальный повод для индексации.
Где оставлять меню (или его часть), а где нет — может зависеть и от его набора слов. На donative есть HTML-карта сайта... с кучей спама... тащить ли такое на морду?
Вон файлы в папках http://www.bdbd.ru/seo/newseo/index.html никаких движков не надо.
Не контента, а сайта.
И не через AJAX (фактически JS), а через возможности клиента, вообще говоря. Например Яндекс.Почта пару лет использовала xslt на клиенте, памятник сему.
И показанные в теме примеры являются скорее образцом экстремизма (ну типа легко убрать всё повторяющееся, значит убираем всё). Может быть правильнее было бы не везде все менюшки от бота скрывать, а только часть... я бы на морде всё оставил.
А что значит «в индекс не попадет»?
Легко проверить можно поиск текста. Со ссылками всё уже не так легко... нахождение акцептора по тексту JS-ссылки — это только часть того, что нужно проверять про ссылки (но спамерюгам даже это лень).
Ну можете и так попробовать (в примерах с первой страницы темы такого нету. Скрипты, располагавшиеся в HTML-коде выполнялись. Смысл именно в выносе их в отдельный файл, прикрытый в роботсе).
И помните, что вы в любом случае лишь экспериментируете... поэтому не стесняйтесь проверять через несколько недель после индексации — что ищется, а что нет.
Надо провести эксперименты в разных браузерах: насколько дольше они рисуют неправильный код... им же приходится как-то интерпретировать явную неправильность (FF когда-то уже уведомлял об чём-то таком).
Экономить надо на количестве HTTP-обращений, а не на мелочах в пределах каждого из них.
И сохраните файлы с кавычками, а то потом у вас может возникнуть проблема: как вернуть кавычки?
Если ПС понимает только некоторую часть того, что понимает браузер, то это называется экономией ресурсов, необходимых для и так слишком затратного поиска. А отдаётся и ПС, и юзеру одно и то же.
Тема вообще была о другом, об использовании возможностей клиента. Типа есть на фрихостах 237 доров по 456 HTML-страниц каждый. И надо быстро сменить их дизайн... не заставляя ПС это всё переиндексить.
Никто не сможет вам гарантировать неизменность этого всего... а эмуляция <a> другими тегами — бесполезна, если ботом выполняется JS
И не помню экспериментов, которые могли бы показать, что ПС не видит ссылку.JS (проще проверить, что не ищет текст). Для каких-то нужд типа борьбы со спамом ПС это может быть прямо и не нужно...
Нет, это не более чем: система сама не плодит дублей и не подсовывает их ботам. Но их возможность остаётся. Да, именно возможность. И при первой же оплошности админа... дубли заполняют индекс.
Ну а потом деяния таких параноиков почему-то ищутся (не-параноикам ещё можно свято верить, что никто из конкурентов не стучит на их подопечного никогда).
А подсказка там уже проиндексирована, добавляем любой параметр типа http://www.demo.2movietime.ru/index.php?mode=statistics&дубль-200-ОК, а делать на серваке проверку всех параметров + их единственно правильную последовательность... это долго.
Вот программеры даже понимают что именно надо, но не хотят сделать. И начинается: а вот мы вам рел=каноникал, мета-ноуиндекс... вместо исправления причины. Ну им же не важно, что бот делает ограниченное количество обращений к сайту, а админ обычно криворукий/шыбкограмотный не сеошник.
Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...