- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
в погоне за так называемой уникализацией анкоров, коммерческие запросы разбавляются чем ни попадя. В итоге коммерческие ссылки оказывают заметное влияние на некоммерческие запросы, т.к. некоммерческие термины активно используются для разбавления коммерческих анкоров.
Т.е. подразумевается, что до этого всего «настройки машинного обучения на основе рипортов асессоров» не вносили необходимых компенсаций в ранжирование «продвигаемых» страниц. Это же клевета на Всемогущего!
Глядя на хвост запросов, по которым заходят, пытаюсь прикинуть — какие из них можно счесть за «коммерческие», а какие за «некоммерческие»? Часто не могу однозначно предположить, чего хотел искатель — товар или инфу про его применение?.. и это при том, что конкретная тема мне известна гораздо лучше, чем асессору, ну и всем тем, кто взялся точно разграничить про всё-всё.
4. Обучение проходит на данных от асессоров, данных уже много.
Какова реальная применимость этих данных? Что там с «шумом»?
Реальная задача асессоров не в этом...
... ну, сделайте запрос про дебри вашей специализации и оцените релевантность ТОПа, и прикиньте — сможет ли то же сделать обычный искатель / асессор? Да, но со своей колокольни / выполняя инструкцию... и релевантностей получится несколько — все субъективны и без претензий на (не однозначную) истину. Какую же релевантность считать «правильной»?
ПС, как коммерческий проект — обречена быть релевантна не какой-то там истине, а массовому юзеру... его-то мутные реакции и имитируют асессоры. Если полученные от них данные (с умеренным отношением сигнал/шум) позволяют с достаточной точностью выявить какие-то характерные признаки/типы страниц/ссылок... машинное обучение сможет «улучшить».
Какова реальная применимость этих данных? Что там с «шумом»?
...
Реальная задача асессоров не в этом...
Все не совсем так, как Вы думаете с этими асессорами. Я, к сожалению, не читал инструкцию для асессора Яндекса, она теоретически может быть отличной от мировой практики, т.к. разработчики в Яндексе иногда очень креативно отжигают. :)
Мировая практика с асессорами такова - асессоры, как правило, не оценивают ранжирование документов, не сравнивают документы по релевантности. Хотя бы потому, что и запрос может трактоваться многими способами, и асессор может быть не спецом в теме. Асессоры оценивают пары <запрос-документ>, обычно по критерию "документ релевантен(еще говорят витальный, но это не та витальность, которая пришпиливает топ-1/частично релевантен/не релевантен". И как бы все. :)
Оценки ранжирования могут быть только на узкотематичных коллекциях документов с привлечением асессоров-профи в данной теме.
Инструкция для асессоров обычно как раз и содержит правила, по которым нужно относить пары в ту или иную категорию.
И задача обучения - сделать например в топ-100 выдачи как можно больше "документ релевантен", если такие документы присутствуют где-то в индексе ПС.
Задача ранжирования по "истинной" релевантности для конкретного пользователя при этом никогда не рассматривается, т.к. ее формализовать в настоящее время не реально.
Для того, чтобы формализовать такую задачу, можно поступить следующим образом. Задавая запрос, пользователь может хотеть получить десятки, а то и сотни разных ответов, но скорее всего есть наиболее распространенные два-три ответа. Если оценить все документы в выдаче по критерию "на какой именно вариант запроса отвечает документ", а потом посчитать доли кликов реальных пользователей на документы каждой группы, то наверное можно сформировать некую пропорцию в выдаче на первых страницах. Но это задача будущего, ИМХО. :)
З.Ы. Выложили труды РОМИП-2009.
...
Асессоры оценивают пары <запрос-документ>
Да это понятно... но представьте, что ТОП (и величина pfound) изменяется, если асессор понимает больше/меньше на тему какого-то запроса/документа, хотя «реальный юзер» может отчичаться и меньшим, и большим пониманием.
Почитываю их уже месяцев несколько.
Они крайне конкретно предлагают проявлять Собственное мнение:
Как оценивать?
Ключевое правило - используйте ваш здравый смысл и попробуйте представить себя на месте человека, задавшего этот запрос.
http://www.romip.ru/romip2009/21_appendix_B_WA.pdf
Эти легковесные/приблизительные инструкции — могут сделать процесс оценки слишком разумным, хотя оценивающий может быть совсем не в теме оцениваемых документов.
Т.е. по многим причинам неизбежно накопление шума, ограничивающего применимость этих данных.
тем самым развивая и улучшая поисковую систему. http://www.romip.ru/romip2009/15_yandex.pdf
Когда следующей весной тут возникнет тема «Великий Яндекс на парижской конфе заявил, что по некоммерческим запросам умеет отличать рекламу от инфы», это будет означать, что в имеющуюся систему добавилось новых факторов, возможно, требующих соотв. настроек по оценкам асессоров... и вполне вероятно, что ГА надо будет некоторое время (до появления приемлемых результатов) их переварить. И в это время можно будет тут пофантазировать об чём-нибудь частичном.
Хм... Реверс-инжиниринг функции минимум о 163 переменных представляется весьма непростой задачей. Хотя, чем черт не шутит, если на самом деле полином, т.е. функция линейная... Значимых факторов ведь все рано не больше десятка наберется...
Всё нелинейное (долго считаемое) можно посчитать заранее и вписать в соотв. шкалу-фактор:
- логарифм количества ссылок на документ;
- процент ссылок на документ, содержащих точное вхождение запроса.
http://www.romip.ru/romip2009/15_yandex.pdf
Чем менее однородной будет толпа оптимизаторов, тем больше будет значимых факторов и тем на больших выборках запросов придётся их выяснять... а пока что-то не стало заметной тенденцией, оно спокойно тонет в шуме, даже если для этого уже заведены шкалы-факторы.
Большинство метрик, применяемых в современной оценке текстового поиска, основываются на отношении релевантности документа запросу. Обсуждение самого понятия релевантности выходит за рамки данного документа. Здесь необходимо лишь отметить, что это отношение имеет скорее психологическую природу и устанавливается прямым опросом экспертов-оценщиков.
Никакая написанная словами инструкция не может помочь описать поведение реального искателя, часто думающего спинным мозгом, типа «голосуй хвостом!»... и вообще, безуминки хватает, а игнорировать её глупо, и асессорам тоже, а представлена она ими заведомо не репрезентативно (интересно, что об этом думают те, кто дает им задания и пытается обработать это всё статистически).
Так что делайте выдачу для людей-реальных.
Реверс-инжиниринг функции минимум о 163 переменных представляется весьма непростой задачей.
Вообще-то 163 это номер страницы. :)
Вообще-то 163 это номер страницы
Да что Вы говорите?
Да что Вы говорите?
Пардон, просто забавное совпадение:
163
:)
Товарищи, выше, в этом топике, было озвучено мнение, что возможно Яндекс уже ввел Мадридский алгоритм выявления СЕО ссылок. Поэтому, теперь он, согласно выступлению, умеет определять коммерческие ссылки, и сводить их влияние к нулю в НЕКОММЕРЧЕСКИХ тематиках чуть ли не с вероятностью 97%.
А что нам мешает, просто провести микро "эксперимент" - взять пяток другой некоммерческих запросов (например "дифференциальное счисление" вас устроит? =) ) и согласно формулам (1) и (2) в пункте (2.4) увеличить параметры SEOlink каким-нибудь "трастовым", не испорченным СЕО, образовательным ресурсам, или сайтам каких-нибудь институтов?
Если ресурсы существенно взлетят в позициях, то, о Мадриде можно пока забыть, или хотя бы посмеяться над "97%".
Другое дело, что надо поставить опыт наиболее чистым образом, я пока этого не продумывал.
Но идея, на ваш взгляд, здравая?
Хм... Реверс-инжиниринг функции минимум о 163 переменных представляется весьма непростой задачей.
Всего таких параметров на конкурсе было 245 штук, что, скорее всего, недалеко от реального числа используемого Яндексом.
Любопытно. :)