Какая разница, витальный или не витальный вообще? Главное то, что Яндекс иногда цепляет несколько страниц.
Умные люди стараются витально проспамить несколько страниц.
Да, на его морде это всё учтено... как во времена медленного интернета.
Когда они чего-то там выкладывают в паблик, то это не значит, что к этому надо относиться как к чему-то заведомо безошибочному (лучше счесть чем-то типа работы с паствой). Достаточно вспомнить их выдумку с индексацией#!AJAX сайтов... вот уж не надо было так делать. Но это ж Гугл! Ему можно да...
Просто никакими прилинкованными скриптами/стилями и пр. нельзя сократить время первой загрузки. Его так можно только увеличивать... ну вот HTTP такой.
И ещё могу придираться к тому, что часто ползатель не может начать читать, пока догружаются мегаскрипты.
Ну вот на что уходит время при первой загрузке (а у посетителей с поиска — загрузка почти всегда первая), ещё до загрузки картинок, на несколько маленьких файлов.js (по быстрому тырнету, не в час пик):
Примерно так же и создатели всего другого модного забывают о полезности сливания скриптов в один файл (поскольку объединённая сеть — штука медленная). Это им просто скучно помнить. Легче думать, что посетитель будет ходить только по этому быстрому сайту. Сам процесс первой загрузки и отображения — забывается...
Ну и неспроста, как только заходит речь об оптимизации, кому-то вспоминается AJAX, хотя зачем тут асинхронность и xml? Достаточно JS или чего-то ещё... из возможностей браузера.
Ну сравните даты ухода Колмановской и Сегаловича. И что, одну фотку успели убрать, а другую нет?
Cell, ну вы же говорили что-то типа ... если победит Гугл, то 3.14здец всему муравейнику... (хотя вон Эпл-Самсунг захватили рынок гейфонов, а отечество ещё не вымерло). А тут такое упущение в работе с паствой (при явном техническом отставании от конкурента). Или может быть эти страницы вообще зря заводились?.. ну попробуйте это ихним пиарщикам объяснить.
Так уж многие давно так серваки разгружают, а время первой загрузки (в восприятии пользователя) часто при этом только растягивается. Вот о восприятии никто не думает.
Это возможность, но ПС не обязана. А в свои расчитаваемые веса бот может верить... как в реальный повод для индексации.
Где оставлять меню (или его часть), а где нет — может зависеть и от его набора слов. На donative есть HTML-карта сайта... с кучей спама... тащить ли такое на морду?
Вон файлы в папках http://www.bdbd.ru/seo/newseo/index.html никаких движков не надо.
Не контента, а сайта.
И не через AJAX (фактически JS), а через возможности клиента, вообще говоря. Например Яндекс.Почта пару лет использовала xslt на клиенте, памятник сему.
И показанные в теме примеры являются скорее образцом экстремизма (ну типа легко убрать всё повторяющееся, значит убираем всё). Может быть правильнее было бы не везде все менюшки от бота скрывать, а только часть... я бы на морде всё оставил.
А что значит «в индекс не попадет»?
Легко проверить можно поиск текста. Со ссылками всё уже не так легко... нахождение акцептора по тексту JS-ссылки — это только часть того, что нужно проверять про ссылки (но спамерюгам даже это лень).
Ну можете и так попробовать (в примерах с первой страницы темы такого нету. Скрипты, располагавшиеся в HTML-коде выполнялись. Смысл именно в выносе их в отдельный файл, прикрытый в роботсе).
И помните, что вы в любом случае лишь экспериментируете... поэтому не стесняйтесь проверять через несколько недель после индексации — что ищется, а что нет.
Надо провести эксперименты в разных браузерах: насколько дольше они рисуют неправильный код... им же приходится как-то интерпретировать явную неправильность (FF когда-то уже уведомлял об чём-то таком).
Экономить надо на количестве HTTP-обращений, а не на мелочах в пределах каждого из них.
И сохраните файлы с кавычками, а то потом у вас может возникнуть проблема: как вернуть кавычки?