богоносец

богоносец
Рейтинг
775
Регистрация
30.01.2007
DiAksID:
по идее гугл должен быть в курсе этих прописных истин

Да, на его морде это всё учтено... как во времена медленного интернета.

Когда они чего-то там выкладывают в паблик, то это не значит, что к этому надо относиться как к чему-то заведомо безошибочному (лучше счесть чем-то типа работы с паствой). Достаточно вспомнить их выдумку с индексацией#!AJAX сайтов... вот уж не надо было так делать. Но это ж Гугл! Ему можно да...

Просто никакими прилинкованными скриптами/стилями и пр. нельзя сократить время первой загрузки. Его так можно только увеличивать... ну вот HTTP такой.

И ещё могу придираться к тому, что часто ползатель не может начать читать, пока догружаются мегаскрипты.

DiAksID:

бутстрап 18+ Кб да ангуляр 139+ Кб, остальное на байты счёт идёт + большая пачка изображений от которых никуда не деться

Ну вот на что уходит время при первой загрузке (а у посетителей с поиска — загрузка почти всегда первая), ещё до загрузки картинок, на несколько маленьких файлов.js (по быстрому тырнету, не в час пик):

Примерно так же и создатели всего другого модного забывают о полезности сливания скриптов в один файл (поскольку объединённая сеть — штука медленная). Это им просто скучно помнить. Легче думать, что посетитель будет ходить только по этому быстрому сайту. Сам процесс первой загрузки и отображения — забывается...

Ну и неспроста, как только заходит речь об оптимизации, кому-то вспоминается AJAX, хотя зачем тут асинхронность и xml? Достаточно JS или чего-то ещё... из возможностей браузера.

Shessmaster:
из документа http://company.yandex.com/general_info/management_team/ еще не успели удалить фотографию. :)

Ну сравните даты ухода Колмановской и Сегаловича. И что, одну фотку успели убрать, а другую нет?

Cell:
И охота вам всякой, извините, хренотенью заниматься?

Cell, ну вы же говорили что-то типа ... если победит Гугл, то 3.14здец всему муравейнику... (хотя вон Эпл-Самсунг захватили рынок гейфонов, а отечество ещё не вымерло). А тут такое упущение в работе с паствой (при явном техническом отставании от конкурента). Или может быть эти страницы вообще зря заводились?.. ну попробуйте это ихним пиарщикам объяснить.

Так уж многие давно так серваки разгружают, а время первой загрузки (в восприятии пользователя) часто при этом только растягивается. Вот о восприятии никто не думает.

ivan-lev:
ему можно намекнуть

Это возможность, но ПС не обязана. А в свои расчитаваемые веса бот может верить... как в реальный повод для индексации.

Где оставлять меню (или его часть), а где нет — может зависеть и от его набора слов. На donative есть HTML-карта сайта... с кучей спама... тащить ли такое на морду?

Вон файлы в папках http://www.bdbd.ru/seo/newseo/index.html никаких движков не надо.

DiAksID:
широкая задача поисковой оптимизация контента через AJAX

Не контента, а сайта.

И не через AJAX (фактически JS), а через возможности клиента, вообще говоря. Например Яндекс.Почта пару лет использовала xslt на клиенте, памятник сему.

И показанные в теме примеры являются скорее образцом экстремизма (ну типа легко убрать всё повторяющееся, значит убираем всё). Может быть правильнее было бы не везде все менюшки от бота скрывать, а только часть... я бы на морде всё оставил.

А что значит «в индекс не попадет»?

Легко проверить можно поиск текста. Со ссылками всё уже не так легко... нахождение акцептора по тексту JS-ссылки — это только часть того, что нужно проверять про ссылки (но спамерюгам даже это лень).

<script type="text/javascript">
$(document).ready(function()
{
$("#sidebar").load('inc/sidebar.inc');
});
</script>

А если еще и /inc в robots.txt зарыть и ПС ссылки не увидит, так это вообще супер-бонус!

Ну можете и так попробовать (в примерах с первой страницы темы такого нету. Скрипты, располагавшиеся в HTML-коде выполнялись. Смысл именно в выносе их в отдельный файл, прикрытый в роботсе).

И помните, что вы в любом случае лишь экспериментируете... поэтому не стесняйтесь проверять через несколько недель после индексации — что ищется, а что нет.

Надо провести эксперименты в разных браузерах: насколько дольше они рисуют неправильный код... им же приходится как-то интерпретировать явную неправильность (FF когда-то уже уведомлял об чём-то таком).

Экономить надо на количестве HTTP-обращений, а не на мелочах в пределах каждого из них.

И сохраните файлы с кавычками, а то потом у вас может возникнуть проблема: как вернуть кавычки?

LEOnidUKG:
если ПС отдаётся одно, а юзеру другое, то это называет клоакинг.

Если ПС понимает только некоторую часть того, что понимает браузер, то это называется экономией ресурсов, необходимых для и так слишком затратного поиска. А отдаётся и ПС, и юзеру одно и то же.

Тема вообще была о другом, об использовании возможностей клиента. Типа есть на фрихостах 237 доров по 456 HTML-страниц каждый. И надо быстро сменить их дизайн... не заставляя ПС это всё переиндексить.

Bytexpert:
Т.е. если я положу все закрытые ссылки в тегах A в JavaScript-файл, который потом закрою в robots.txt, то ПС их увидеть не должна и таким образом прятать ссылки через эмуляцию тега A другими тегами через JavaScript (как это описано было в статье) - это уже излишестово.

Никто не сможет вам гарантировать неизменность этого всего... а эмуляция <a> другими тегами — бесполезна, если ботом выполняется JS

И не помню экспериментов, которые могли бы показать, что ПС не видит ссылку.JS (проще проверить, что не ищет текст). Для каких-то нужд типа борьбы со спамом ПС это может быть прямо и не нужно...

DiAksID:
главное, что бы система сама не плодила адреса дублей и не подсовывала их ботам, это необходимое и достаточное условие защиты от дублирования контента

Нет, это не более чем: система сама не плодит дублей и не подсовывает их ботам. Но их возможность остаётся. Да, именно возможность. И при первой же оплошности админа... дубли заполняют индекс.

предположение, что "завистники и зложелатели" начнут тратить время и ресурсы специально засовывая в индекс ПС какие-то особо хитрож*пые ссылки на "мой любимый СДЛ" суть не более чем оторванная от реальности паранойя...

Ну а потом деяния таких параноиков почему-то ищутся (не-параноикам ещё можно свято верить, что никто из конкурентов не стучит на их подопечного никогда).

jondeer:
Конечно, избавление от дублей - не было первостепенной задачей при разработке ЧПУ. Но найти разделы, создающие дубли, мне найти не удалось.

А подсказка там уже проиндексирована, добавляем любой параметр типа http://www.demo.2movietime.ru/index.php?mode=statistics&дубль-200-ОК, а делать на серваке проверку всех параметров + их единственно правильную последовательность... это долго.

DiAksID:
вы не уловили засаду в поставленной задаче 😂 на самом деле скрытый посыл звучит как то так "покажите сайт, который гарантированно не выдаст одинаковый контент на нескольких выдуманных кем-то вариантов урла"
Не скрытый посыл, а так прямо и сказанный: покажите хотя бы сайтег, на котором нельзя создать дубля.

Вот программеры даже понимают что именно надо, но не хотят сделать. И начинается: а вот мы вам рел=каноникал, мета-ноуиндекс... вместо исправления причины. Ну им же не важно, что бот делает ограниченное количество обращений к сайту, а админ обычно криворукий/шыбкограмотный не сеошник.

Ну и нет CMS с удобными средствами сокрытия любого блока. И лёгкой возможностью любых сеошных игр...

Всего: 13652