- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Не будет преувеличением сказать, что эта тема сейчас в нибольшей степени волнует умы оптимизаторов. А посему никак не могу остаться в стороне.
Начнем рассмотрение темы с самого начала, с анализа фактов. Сразу предупрежу, что возможно я в чем-то заблуждаюсь, поэтому не стоит воспринимать все нижесказанное как истину в последней инстанции. Возможно мои собственные измышления натолкнут коллег на более интересные предположения.
Итак, факты. Что мы имеем. 9 ноября происходит очередной апдейт, не предвещавший бури. Самый обычный апдейт. 10 ноября все оптимизаторы обнаруживают, что выдача снова кардинально изменилась. Но что характерно, изменения затронули лишь запросы, состоящие из двух и более слов. По однословным запросам изменений не произошло. В дальнейших рассуждениях будем отталкиваться от этих двух фактов.
То, что изменение выдачи произошло на следующий день, говорит о том, что привычного апдейта не было. База не пересчитывалась, т.к. Яндексу на это необходимо 3 дня. Почему 3? Я уже освещал как-то эту тему на форуме. Кто не поленится, найдет. Опять же, не произошло появления новых бэков и выдача по однословным запросам не изменилась, что косвенно подтверждает предположение.
Тут необходимо сделать небольшое отступление и поговорить о самом процессе обновления. Как известно, факторы ранжирования делятся на две группы: внутренние и внешние. Внутренние определяются содержанием, а внешние - ссылками. Прошу прощения у гуру за повторение столь банальных вещей, но для стройности изложения они необходимы. Идем дальше, процесс обсчета как внутренних, так и внешних факторов весьма ресурсоемкий и занимает те самые пресловутые 3 дня. И вот тут мы подходим к ключевому моменту. Подсчет весов слов как во внутренних факторах, так и внешних осуществляется для каждого слова отдельно. Надеюсь вас это не удивляет. Это происходит прежде всего из-за того, что Яндекс (да и любой другой поисковик) не может предусмотреть все возможные сочетания слов в запросах, т.к. их теоретически - бесконечно множество. Поэтому как ссылочный, как и контентный вес обсчитывается исключительно пословно. Эти данные собственно и составляют сам поисковый индекс. Этот процесс, напоминаю, занимает 3 дня. А собственно ранжирование по конкретному запросу осуществляется поисковиком “на лету” на основании первичных данных. Также не лишним будет сказать, что всевозможные фильтры также обсчитываются на начальном этапе, т.е. учтены в первичном индексе.
Теперь, после небольшого отступления снова возвращаемся к нашему анализу. Как наверное уже ясно, первичные данные не изменялись. Т.е. списать все на введение каких-то новых фильтров (в т.ч. на тематичность ссылок или морды) просто нельзя. Это подтверждается также неизменностью выдачи по однословным запросам - индекс рассчитан и вес каждого документа по каждому слову уже известен. Однозначно все сводится к тому, что изменения произошли в самой формуле расчета релевантности, которая формирует выдачу “на лету”.
Для наглядности обратим внимание на формулу расчета релевантности, представленную во всем известной статье Сергея Людкевича (wolf):
Rа(x)=(m*Tа(x)+p*Lа(x))* F(PRa),
где:
Rа(x) - итоговое соответствие документа а запросу x,
Tа(x) - релевантность текста (кода) документа а запросу x,
Lа(x) - релевантность текста ссылок с других документов на документ а запросу x,
PRа - показатель авторитетности страницы а, константа относительно х,
F(PRa) - монотонно неубывающая функция, причем F(0)=1, можно допустить, что F(PRa) = (1+q*PRа),
m, p, q - некие коэффициенты.
Как, вполне справедливо, замечает сам автор, формула весьма приблизительная. Но нам важна не столько сама формула, сколько параметры, используемые в расчете.
Теперь рассмотрим непосредственно сам процесс расчета релевантности документа. Опять же, неизменность выдачи по однословным запросам говорит нам о том, что в самой формуле изменений не произошло. Коэффициенты m и p остались неизменны. Раз так, то говорить об увеличении веса контента относительно ссылочного ранжирования нельзя. А поскольку уже многим очевидно, что контент стал все же играть бОльшую роль, то логика и интуиция подсказывают, что все изменения произошли на этапе расчета параметра Lа(x) для многословных запросов. И изменения эти привели к уменьшению абсолютных значений этого параметра. С учетом того, что первичные данные для этого коэффициента остались неизменными, значит, изменилась сама формула расчета ссылочного веса на основе весов и близостей отдельных слов запроса, входящих в текст ссылок.
На этом общий анализ буду считать завершенным. Дальнейшие выводы делаем сами.
Да, еще, склонен полагать, что исследования ХренРедькиНеСлаще в общем и целом идут в верном направлении. Истина где-то рядом :)
Автор, так что Вы хотели донести пытливому читателю ?
Яндексоиды сказали, что будут применять санкции к ссылкам, которые сделаны не для людей ... в этом есть глубокий смысл. Стоит подумать как робот может отличить ссылку для людей и не для людей.
Trump, не более, чем дать пищу для размышлений ;-)
Яндексоиды сказали, что будут применять санкции к ссылкам, которые сделаны не для людей ... в этом есть глубокий смысл. Стоит подумать как робот может отличить ссылку для людей и не для людей.
Получается чем меньше внешних ссылок тем лучше? Странно, IMHO.
Яндексоиды сказали, что будут применять санкции к ссылкам, которые сделаны не для людей ... в этом есть глубокий смысл. Стоит подумать как робот может отличить ссылку для людей и не для людей.
Очень согласен, в этой теме надо всегда держать уши по ветру. Сначала я думал о мордобое, сейчас просто уверен что это борьба с врагами_народов и майкрасофтом_геммороем и иже сними. Ссылочное рулит как и рулило, только вес ссылки как бы "привязали" к внутренним факторам, и возможно тематичность документа вовсе и не учитывается. ихмо конечно
Может скажу глупость но может изменились не алгоритмы метрик сайтов по словам, а алгоритм сложения этих метрик.
Например запрос "слово1 слово2 ... словоN"
Для каждого слова считают метрики на каждый сайт M[J]("словоI", сайтJ)
Так вот эти метрики не поменялись. Поменялся их алгоритм сложения.
Релеватность сайта J = F(частота слова в рунете ("слово1"))*M[1][J]+...+F(частота слова в рунете ("слово1"))*M[N][J].
Т.е. поменялась функция F() зависимость коефициента от частоты слова во всем индексе.
тематичность документа вовсе и не учитывается
Ну это, вроде, сейчас Logistic проверяет - с него и спрос
Получается чем меньше внешних ссылок тем лучше? Странно, IMHO.
Причем тут количество? Речь идет о качестве.
Hkey, склонен согласиться ;) Аналогичные мысли