Разве? Предположу, что даже не в большинстве случаев.
Можно не брать специфические варианты, типа этого форума (каково оптимальное расстояние между ключевиками в этой теме, например?) - достаточно принять, именно логически, что люди пишут тексты по-разному и, соответственно, "предмет запроса" определяется в первую очередь именно "по смыслу и лексически", а не по среднетемпературным расстояниям между словами.
Я к тому веду, что при расчёте пузомерок (как вероятности перехода по ссылке) и прочих трастовых окон такие значения ещё можно приводить к каким-то общим и "обезличенным" результатам, но вот при учёте поведенческого - проблема станет в полный рост.
Допустим, что рассчитывать веса ссылок, исходя из вероятности перехода по ним - подход правильный. Но что делать, если ссылка тем или иным способом становится невидимой? Учитывать её при ссылочном/анкорном и всяком прочем ранжировании ещё как-то можно, но для поведенческого её вес прямо и стопроцентно равен нулю, без каких-либо предварительных и последующих вычислений.
Другой пример - кликабельность сниппета. Как её алгоритмизировать для поведенческого, кроме очередных "средних по больнице" статистик кликабельности? К примеру, сниппет, кликабельный для простых пользователей, будет совершенно незаметен для слабовидящих и/или дальтоников - а это уже двузначный процент. Отнесём в погрешность? Так это лишь яркий пример, без тонкостей и нюансов. Придумаем методику?
Но где взять методику для измерения офлайновых действий через онлайн-инструменты? Они попросту не пересекаются. Метрику в мозг не имплантируешь и бары на очки не навесишь.
Так что все рассуждения на тему учёта есть не более, чем игрушки, а-ля статистика по возрасту и, о чудо, полу - вторичные и далее выводы, полученные через наблюдения за сайтами анекдотов и женских форумов.
Не пойму никак разницы... Вот Валерий нормально описал - типичные беспредельщики (с малым сроком жизни, как правило - подобная злоба умерщвляет во всех смыслах).
Люди разные, отсидка тоже по всякому влияет.
То же самое, судя по вопросам.
Во-во. Это тоже к вопросу о неверных предпосылках - кто вообще выдумал, что "чем меньше, тем лучше"? На основе какой, объёма и качества, эмпирики?
Кстати, а на основе чего было принято, что одно расстояние между словами должно учитываться хорошо, а несколько большее - хуже? Какие расстояния были взяты за основу, и по какому принципу?
Ну, не по конкретным формулам, а вообще, в самом начале.
Протокола ipv6 имеется в виду? Здесь, насколько я помню, проблема в магистральщиках.
Даже в Москве (до MSK-IX) есть несколько провайдеров, достаточно долгое время работающи с в6 - другое дело, что выше аплинков, в6 не поддерживающих, трафик не пойдёт. Да и зачем он, если к примеру, тот же yandex.ru не резольвится по в6 протоколу (не смотря на то, что диапазон новых адресов у них есть).
Тогда понятно.
А ничего больше нет про поведенческое? :)
Тысячи их, таких "лично Вы ведёте себя так-то". И тысячи условий, когда это поведение резко (для сегодняшних примитивных моделей) меняется.
В общем, как и года четыре назад, алгоритмизация поведения лично мне :) представляется малореальной.
Это как? :) Верстальщик, наверное?
Нет. Только в Штатах если, по миру он вряд ли будет доступен. Тут стоит вопрос "совместимости" DNS-записей ("А" и "АААА"), насколько я помню.
А, ну понятно.
В том и проблема, что время, затраченное на поиск - мягко говоря, неоднозначный критерий качества. Одно дело, когда человек ищет зимней ночью "такси <улица>", и другое - когда он же ищет "история времени восходов летнее солнцестояние" за 10 минут до "такси".
Непонятно, почему "серьёзная"? Сколько факторов существует при учёте поведения пользователя, давайте определим.
Ой, а у мя ж релиз вышел очередной, не хочешь?