- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Вот тут:
Если конкретному сайту дать максимальную релевантность, то, по словам Turbo, первое место этому конкретному сайту обеспечено, а это, по словам Садовского, не так. :)
Первое место этому конкретному сайту по конкретному запросу не обязательно ВЧ. И скорее всего если асессор его выбрал он и так уже был на первом месте. Просто он его закрепил в алгоритме.
И цитаты от 2003 года скорее всего уже не есть правда.
А почему такой ажиотаж?
Давно известно, что параметров в формуле ранжирования более 245. Что асессоры оценивают ответы ПС. И что сама формула, точнее параметры всегда будут меняться, например, в связи с ростом базы. И вообще все зависит от выборки документов и тд. Что могут использоваться любые комбинации и модификации методов ранжирования и прочих алгоритмов, в зависимости от текущей задачи. И вообще релевантность - давно перестала быть первоочередной задачей яндекса, а задача - "счастье пользователей" :)
И скорее всего если асессор его выбрал он и так уже был на первом месте.
Это не есть факт. :)
И вообще, как я понимаю, вы уже не настаиваете на п.1? :)
Когда рейтинг был почти пустой там были Победа (1 место) и Baseline (Простой алгоритм). Потом появились уже все остальные.
Неплохой аргумент
Почитал топик 2003 года, там начиная с 5-й страницы обсуждения Арзамаса:D
Мне кажется, что география теоретически может рассматриваться как один из параметров для определения релевантности. Например, для пользователей с московскими ip выдавать в первую очередь московские сайты, тульских - тульские и т.п. В _некоторых_ случаях это было бы очень полезно, особенно, если человек не из Москвы.
Очень актуально читается..
Первое место этому конкретному сайту по конкретному запросу не обязательно ВЧ. И скорее всего если асессор его выбрал он и так уже был на первом месте. Просто он его закрепил в алгоритме.
Кстати, в принципе этим можно объяснить наличие в топ 10 Википедии по многим запросам, в том числе и английского варианта Википедии.
А почему такой ажиотаж?
Тема просто редкая. Не про апдейты :D
вообще релевантность - давно перестала быть первоочередной задачей яндекса, а задача - "счастье пользователей"
людей-реальных
Большинство метрик, применяемых в современной оценке текстового поиска, основываются на отношении релевантности документа запросу.
... это отношение имеет скорее психологическую природу и устанавливается прямым опросом экспертов-оценщиков.
Можно дать объявление здесь на серче - ищу связь с ассессором - глядишь подфартит он стукнется в личку и предложит свои услуги
Понадобится большая куча асессоров
Надёжные результаты именно на больших выборках... людей.
А все асессоры не смогут физически передать все документы, запросы и оценки.
А даже если смогут, то что? Названия факторов уже известны?
Садовский вроде говорил, что ассессорами являются волонтёры разных профессий, а не число программисты или математики.
Ну они же не для себя выдачу делают, понимая всю свою безнадёжную испорченность.
А ссылки не найдётся на то, что конкретно говорилось, да ещё про волонтёров?
Вроде бы только про отсутствие требований...
Для работы над СДЛ нужны даже не столько ресурсы, сколько заинтересованные в теме грамотные специалисты.
Криво формулируете!.. слова говорят о состоянии говорящего.
Вспомните свой единственный СДЛ, особенно стадию написания контента во всех ощущениях...
Есть люди, пишущие, переводящие... вываливающие иногда по мегабайту текстов... делается сайт с хорошо видимым упоминанием их имён, условий, пожеланий, манифестов... и они довольны, что за них сделали то, чего они сами делать не умеют. Уже парочку таких чужих трудов|недоделок превратил в сайты. Но начинал именно с написания текстов...
После участия в конкурсе от Яндекса (Интернет математика) мне стал абсолютно ясно понятен алгоритм работы и ответы на всякие мелкие вопросы, вроде, почему апдейты проходили раз в несколько дней. Все очень просто.
Все было бы просто, если бы именно эта модель использовалась в реале. Кстати, почему Вы решили, что конкурс был основан на текущем алгоритме? ИМХО, это не так. ;)
У Яндекса есть группа асессоров – так называемых оценщиков релевантности документов. Они составляют список вида: страница – запрос – релевантность. В этом списке сотни тысяч страниц. Релевантность варьируется от значений совсем не релевантно (0), до полностью релевантно (5).
На конкурс выдали такую градацию, на РОМИП-2009 фактически использовалась бинарная vital=1/все остальное=0, как оно в реале - дело темное.
Всего таких параметров на конкурсе было 245 штук, что, скорее всего, недалеко от реального числа используемого Яндексом.
Не факт.
По списку асессоров и набору параметров для каждой страницы из списка строится модель по «Методу опорных векторов».
Только в рамках конкурса.
1) Если страница вашего сайта попадает в список асессоров с максимальной релевантностью, то первое место вам обеспечено независимо от расколбаса выдачи.
Сомнительное утверждение.
2) Люди в Яндексе сами не в курсе, что именно больше влияет на выдачу (контент, ссылочное).
Наверняка. :)
3) Поиск Яндекса приспосабливается к любым внешним условиям за счет постоянного обновления модели.
Ага.
4) Я пытался найти зависимость, монотонное изменение одного параметра НИКОГДА не приводит к монотонному изменению релевантности. Из этого следует, что нет параметра, однозначно ведущего к увеличению релевантности.
Так это в общем-то достаточно очевидно для такого вида функций.
Человек 10 ИМХО хватит, что бы поддерживать список актуальным.
Думаю, что больше.
Что бы осознанно влиять на выдачу нужно:
1) Достать описание и метод расчета всех 245 (?) параметров
2) Достать хотя бы устаревшую базу асессоров
:) Ну в целом можно пойти и другими путями, да.
Ну 3 параметра они явно озвучили: tf*idf, PageRank, длина запроса в словах. Но от этого не легче, например посчитать PR так же как Яндекс невозможно, не имея полной БД Яндекса.
В конкурсе использовался tf*idf, в реале - уже нет, и якобы давно. ;)
Кстати интересный момент, не смотря на обилие факторов, значимых то все равно должно быть мало.
Верно, их-то и нужно пытаться реинжинирить.
я вообще не знаю что такое "машинное обучение", к сожалению.
не затруднит вас объяснить?
Если взять за подобие "истины" доклад Яндекса на РОМИП-2009, то "машинное обучение" в понимании яндексоидов - нахождение хороших экстремумов некоей целевой функции от ранжирующей. :)
Можно дать объявление здесь на серче - ищу связь с ассессором - глядишь подфартит он стукнется в личку и предложит свои услуги :)
Не даст такая связь ничего абсолютно, ИМХО. :)
А почему такой ажиотаж?
Давно известно, что параметров в формуле ранжирования более 245.
Откуда известно?
Неплохой аргумент
Если догадка верна, то халявные оптимизаторы на конкурсе не справились и на такой подход могли вообще забить.
З.Ы. Прошу сильно не пинать за сумбурность, т.к. немного на южных морях и башка явно перегрета на солнце. :)
Кстати интересный момент, не смотря на обилие факторов, значимых то все равно должно быть мало.
А Вы в процессе построения функции разве не увидели, сколько там значимых факторов?