богоносец

богоносец
Рейтинг
779
Регистрация
30.01.2007

Какая разница, витальный или не витальный вообще? Главное то, что Яндекс иногда цепляет несколько страниц.

DiAksID:
по идее гугл должен быть в курсе этих прописных истин

Да, на его морде это всё учтено... как во времена медленного интернета.

Когда они чего-то там выкладывают в паблик, то это не значит, что к этому надо относиться как к чему-то заведомо безошибочному (лучше счесть чем-то типа работы с паствой). Достаточно вспомнить их выдумку с индексацией#!AJAX сайтов... вот уж не надо было так делать. Но это ж Гугл! Ему можно да...

Просто никакими прилинкованными скриптами/стилями и пр. нельзя сократить время первой загрузки. Его так можно только увеличивать... ну вот HTTP такой.

И ещё могу придираться к тому, что часто ползатель не может начать читать, пока догружаются мегаскрипты.

DiAksID:

бутстрап 18+ Кб да ангуляр 139+ Кб, остальное на байты счёт идёт + большая пачка изображений от которых никуда не деться

Ну вот на что уходит время при первой загрузке (а у посетителей с поиска — загрузка почти всегда первая), ещё до загрузки картинок, на несколько маленьких файлов.js (по быстрому тырнету, не в час пик):

Примерно так же и создатели всего другого модного забывают о полезности сливания скриптов в один файл (поскольку объединённая сеть — штука медленная). Это им просто скучно помнить. Легче думать, что посетитель будет ходить только по этому быстрому сайту. Сам процесс первой загрузки и отображения — забывается...

Ну и неспроста, как только заходит речь об оптимизации, кому-то вспоминается AJAX, хотя зачем тут асинхронность и xml? Достаточно JS или чего-то ещё... из возможностей браузера.

Shessmaster:
из документа http://company.yandex.com/general_info/management_team/ еще не успели удалить фотографию. :)

Ну сравните даты ухода Колмановской и Сегаловича. И что, одну фотку успели убрать, а другую нет?

Cell:
И охота вам всякой, извините, хренотенью заниматься?

Cell, ну вы же говорили что-то типа ... если победит Гугл, то 3.14здец всему муравейнику... (хотя вон Эпл-Самсунг захватили рынок гейфонов, а отечество ещё не вымерло). А тут такое упущение в работе с паствой (при явном техническом отставании от конкурента). Или может быть эти страницы вообще зря заводились?.. ну попробуйте это ихним пиарщикам объяснить.

Так уж многие давно так серваки разгружают, а время первой загрузки (в восприятии пользователя) часто при этом только растягивается. Вот о восприятии никто не думает.

ivan-lev:
ему можно намекнуть

Это возможность, но ПС не обязана. А в свои расчитаваемые веса бот может верить... как в реальный повод для индексации.

Где оставлять меню (или его часть), а где нет — может зависеть и от его набора слов. На donative есть HTML-карта сайта... с кучей спама... тащить ли такое на морду?

Вон файлы в папках http://www.bdbd.ru/seo/newseo/index.html никаких движков не надо.

DiAksID:
широкая задача поисковой оптимизация контента через AJAX

Не контента, а сайта.

И не через AJAX (фактически JS), а через возможности клиента, вообще говоря. Например Яндекс.Почта пару лет использовала xslt на клиенте, памятник сему.

И показанные в теме примеры являются скорее образцом экстремизма (ну типа легко убрать всё повторяющееся, значит убираем всё). Может быть правильнее было бы не везде все менюшки от бота скрывать, а только часть... я бы на морде всё оставил.

А что значит «в индекс не попадет»?

Легко проверить можно поиск текста. Со ссылками всё уже не так легко... нахождение акцептора по тексту JS-ссылки — это только часть того, что нужно проверять про ссылки (но спамерюгам даже это лень).

<script type="text/javascript">
$(document).ready(function()
{
$("#sidebar").load('inc/sidebar.inc');
});
</script>

А если еще и /inc в robots.txt зарыть и ПС ссылки не увидит, так это вообще супер-бонус!

Ну можете и так попробовать (в примерах с первой страницы темы такого нету. Скрипты, располагавшиеся в HTML-коде выполнялись. Смысл именно в выносе их в отдельный файл, прикрытый в роботсе).

И помните, что вы в любом случае лишь экспериментируете... поэтому не стесняйтесь проверять через несколько недель после индексации — что ищется, а что нет.

Надо провести эксперименты в разных браузерах: насколько дольше они рисуют неправильный код... им же приходится как-то интерпретировать явную неправильность (FF когда-то уже уведомлял об чём-то таком).

Экономить надо на количестве HTTP-обращений, а не на мелочах в пределах каждого из них.

И сохраните файлы с кавычками, а то потом у вас может возникнуть проблема: как вернуть кавычки?

Всего: 13684