Снежинск - новый алгоритм ранжирования

A
На сайте с 11.05.2007
Offline
155
#1391

ппц, читаешь отзывы и понимаешь - конец света пока проходит мимо меня.

28 проектов в работе, 26 на месте, 2 упало но максимум по 30% ключам. один клиент только заметил что немного сползли остальные даже не почуствовали ничего. также были 6 проблемных проектов 4 по прежнему в жопе, а вот 2 четко дали плюс по всем ключам (ВК тематики туризм, СЕО). сказать честно не понял почему так стрельнуло их, странно но единственное что их объединяло - недостаточное финансирование (скажем первый на 40 сложных ключей по туризму всего 8К в сапу). т.е. они 17 числа обскакали сайты с бюджетами в 2-3 раза больше. В общем на моем примере получилось что незаспамленные тысячами ссылок сайты резко скакнули вверх и обошли высокобюджетные.Это касательно вопроса увеличивать бюджет в снежке или нет. В снежке рулит не количество а качество (в прочем количество если его много тоже рулит)

Ув. Гудман, что касается вашего пессимистичного настроя могу сказать что яндекс никогда не сможет победить сеошников. Мы (оптимизаторы) боремся НЕ с Яндексом,а между собой. Знать точную форумлу алгоритмов и медитировать на ICF не надо - достаточно разбираться в ранжировании на пол шага лучше товарищей по цеху.

N
На сайте с 22.07.2004
Offline
138
#1392

ещё одно неприятное наблюдение: на одном из продвигаемых сайтов "показатель отказов" вырос почти в два раза (с 35% до 60%), посещаемость при этом осталась почти такой же как была (со 120 упала до 105). при этом позиции перетряхнуло очень сильно. и получилось, что сайт выполз по каким-то левым запросам вверх.

надеюсь, что снежопинск таки ещё в процессе обучения.

Иду в бурж.
юни
На сайте с 01.11.2005
Offline
902
#1393
lipton:
обучалки ведь у коммерции и некоммерции разные..

В принципе, можно предположить, что на части комм. выдачи изначальная выборка сайтов для оценки была специально отобрана из некоммерческого массива (например, ссылочные доноры для них не участвуют в биржах).

Тогда, соответственно, в итоговой формуле оценки релевантности большой вес приобрели не типичные сео-факторы.

https://a-parser.com/ - парсер для профессионалов SEO, маркетологов, арбитражников и SaaS, https://searchengines.guru/ru/forum/944108 - прокси-сервис на базе операторов домашнего интернета, сотни тысяч IP-адресов, канал от 20 Мбит
K
На сайте с 30.07.2008
Offline
135
#1394
юни:
...в итоговой формуле оценки релевантности большой вес приобрели не типичные сео-факторы.

+1. На многих примерах у себя вижу подтверждение. А сами нетипичные факторы могут быть разными.

G00DMAN
На сайте с 19.04.2008
Offline
122
#1395
pro22:
я далек от математики, но с ваших разговоров сложилось впечатление что алгоритм теперь стал обучаем.

Алгоритм давно уже был обучаем, сейчас сменилась методика обучения.

pro22:
То есть теперь раз в месяц можно показать алгоритму "хорошие" и "плохие" сайты и он сам определит важность тех или иных факторов релевантности? Тогда яндексоидам не нужно отслеживать новые ухищрения СЕОшников или дорвейщиков и ГСспамеров, алго подумает и сделает это за них.

Я несу бред или где то мелькнула верная мысль?

Отслеживать ухищрения сеошников или дорвейщиков - не единственная задача Яндекса. Сео-запросы в общей массе не составляют большинства. А выдача должна быть адекватной по любому запросу, это в идеале.

Если в обучающую выборку сунуть некоторое количество пар (запрос,дорвей) с низкой "истинной" релевантностью, то по этим конкретным запросам дорвеи конечно же вылетят из топов, а вот найдутся ли таким образом все дорвеи данных типов? Может и найдутся, не зря же у документа сотни признаков. :)

Илья Зябрев, AlterTrader Research Ltd. Последние статьи: Об отмене ссылок в Яндексе. (www.altertrader.com/publications38.html)|Поведенческие факторы (формулы) (www.altertrader.com/publications36.html) Жадные алгоритмы Яндекса. (www.altertrader.com/publications20.html)|MatrixNet для «чайников». (www.altertrader.com/publications19.html)
юни
На сайте с 01.11.2005
Offline
902
#1396
gidronic:
А неоправданно пострадавшие от АГС не подойдут? Минтранс какой-нибудь?

А в чем пострадал сайт Минтранса? Поискового трафика с Яндекса стало меньше?

[Удален]
#1397

Заметил очень интересный момент, хотя может уже кто-то уже и озвучил.

Многие тут говорят о старых ссылках, я скажу, что действительно старые ссылки работают, но вот какой момент я заметил еще: думаю, что старые ссылки, если они все с одним анкором и без околоссылочного текста перестали клеить. Дело в том, что года три-четыре назад я занимался одним сайтиком. Менялся ссылками, размещал в белых каталогах и везде ставил один и тот же анкор, без всякого текса вокруг него. Сейчас этот сайт вылез в топ.

Вот так вот...

G00DMAN
На сайте с 19.04.2008
Offline
122
#1398
юни:
Если новая формула ранжирования так или иначе базируется на оценках асессоров, то оценки-то эти, по релевантности запроса документу, всё равно формируются на базе предыдущей выдачи (которая - во всяком случае, в коммерческой её части - сформирована сеошниками, по всем известным принципам внутренней и внешней оптимизации).

Или всё-таки возможен вариант, когда даже в чисто коммерческом сегменте (вроде тех же кондиционеров, где сайты "накачаны" вплоть до 50х позиций) обучение на практически 100% сеошной выдаче приведёт к тому, что в топе появятся некоммерчески-"естественные" ресурсы?

Возможно такое?

Маловероятно. Я думаю, что сео-топы останутся коммерческими, только сделаются менее просчитываемыми, если не найдутся лекарства. :)

SI
На сайте с 01.06.2009
Offline
21
#1399

Хотелось бы узнать мнение Мэтров на тему: будет ли нынешний алгоритм Яндекса развиваться в следующих версиях в сторону усложения (и всем придется идти на второе математическое В/О :) ), или он уже достиг максимума, и дальше будет легче?

Сделав выбор, становишься беднее: теперь миллионы возможных дорог свелись к одному единственному пути.
юни
На сайте с 01.11.2005
Offline
902
#1400
G00DMAN:
только сделаются менее просчитываемыми

А за счёт чего?

Какой из нескольких тысяч факторов (которые, опять же, так или иначе учитывались оптимизаторами, ведь правильно?) после обучения вдруг вытеснит типичные факторы прежних релизов, навроде количества точных вхождений в тексте документа сайта-акцептора, или примерно одинаково понимаемой "жирности" ссылки с донора?

Допустим, в обучаемых парах "запрос-документ" оценщики отдавали предпочтение страницам, перегруженным тегами заголовков и километровым мета-дескрипшн - что, в итоге обученная формула будет ставить схожие ресурсы выше остальных в выдаче?

Или они на что-то другое равняются? Не на время же загрузки страницы, в самом деле...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий