- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Илья, ну некорректно так спорить. Приписать усиленные высказывания и потом их опровергать :)
Во-первых твоя метрика "важности" хреновая, т.к. хз, как по ней сравнивать два произвольных фактора.
Нельзя. Но я и не собирался. Хотя бы потому что одних BM25 дофига.
Я предлагал оценивать группы факторов. Потому что единственный разумный для меня метод оценить вклад группы факторов в 40Мбайном полиноме - попытаться их обнулить. И мы, в отличие от яндексоидов, можем это делать только мысленно :)
без слов запроса не может быть в топе
Немного не так я формулировал. Глюков в топе полно. Но они временные. А вот попасть туда не случайно, а специально без хотя бы части слов запроса неимоверно трудно, если вообще возможно.
Если угодно - это моё оценочное суждение :)
показал Гугл, подловив Бинг
Это попадание в индекс. Но не в топ.
Я вот тут намекал Михе как этого можно добиться:
А запросы, по которым посетители переходят на документ?
Без раскрытия деталей. Поэтому Миха считает что так не бывает :)
Но силов на полноценный эксперимент у мну нет. В принципе, если ПФ круты, то документы можно загонять именно в топ без BM25.
В третьих, на этапе фастранка в формуле вполне могут быть и ПФ, почему бы и нет?
Тут я с тобой соглашусь. Какие-то ПФ яндексриды могут теоретически включать в фастранк. Но практически это несколько безумная идея - без топа нет ПФ, а без ПФ нет топа. Замкнутый круг :)
без топа нет ПФ
Это, мягко говоря, чушь!
Я.браузер, Я.Элементы, Я.Метрика и т.д. дают до фига данных про ПФ без ранжирования (и даже без индексирования).
Без топа (до ранжирования) определяется тематика, т.е. можно оценить качество ПФ с учетом тематики. Т.е. так определяется ПФ домена (без привязки к запросу).
Смотрим дальше: у сайта может быть трафик с контекста, из альтернативной ПС,из соцсетей и т.д. по которым можно определить интерес пользователей, т.е. можно определить ПФ по запросу. Может быть также трафик ретаргетированный, который вообще отлично привязывается к запросу.
Итого: без топа можно точно узнать половину перечисленного на первой странице ветки, оценить вторую половину, + еще определить много факторов.
Для определения ПФ нужен не топ, а поведение пользователей, т.е. нужен трафик!☝
Какие-то ПФ яндексриды могут теоретически включать в фастранк. Но практически это несколько безумная идея - без топа нет ПФ, а без ПФ нет топа. Замкнутый круг :)
Пахнет плоско.
В рекламном ролике безумная идея высказывалась:
Для большей наглядности докладчик предложил рассмотреть «страшный объект», который называется графом запросов, где узел – это запрос, ребро – количество пользователей, переформировавших один запрос в другой, поиск – это случайное блуждание по данному графу. При этом выдача формируется на основе наиболее вероятных точек остановки поиска. Т.е. рассматриваются все варианты поведения пользователя, для того чтобы найти точки, где предыдущие пользователи вероятней всего нашли ответы. Дальше последовали не менее «страшные» формулы расчетов.
Результатами исследования стали большая привлекательность (не релевантность, а вероятность клика) выдачи и большее разнообразие выдачи. Однако есть проблемы, которые не дают в полной мере заявить о гениальности идеи. Например, поиск становится менее понятным: в SERP могут появляться URLs, в сниппетах которых нет слов запроса.
Для определения ПФ нужен не топ, а поведение пользователей, т.е. нужен трафик!
А что нужно для того, чтобы в топ продвинуть, при помощи ПФ?
Не проанализировать ПФ, а использовать, как инструмент продвижения. Как альтернативу отмены ссылочному, например.
Как двигать при помощи ПФ? Конкретика есть? :)
---------- Добавлено 13.01.2014 в 20:42 ----------
Потому что единственный разумный для меня метод оценить вклад группы факторов в 40Мбайном полиноме - попытаться их обнулить. И мы, в отличие от яндексоидов, можем это делать только мысленно
Ну и что из этого вытекает? Смысл дискуссии какой?
Тренируем мозг? :)
П.С.
Всех с наступающим старым новым. )
А что нужно для того, чтобы в топ продвинуть, при помощи ПФ?
Не проанализировать ПФ, а использовать, как инструмент продвижения. Как альтернативу отмены ссылочному, например.
Так и получается, что не может ПФ заменить полностью ссылочное
Как двигать при помощи ПФ? Конкретика есть?
Ну, да, есть:
• Берем факторы, которые хотим улучшить. Например, факторы с первой страницы этой ветки, хотя, видимо, есть еще некоторое количество значимых факторов.
• Определяем нужное нам (желаемое) значение этих факторов для запроса, для документа и для всего сайта в целом.
• Строим модель поведения пользователя такую, чтобы эти значения достигались.
• Привлекаем на сайт (не спрашивайте как) пользователей с этим поведением.
• Смотрим на результат - на статистику сайта, на выдачу, на конверсию, на продажи.
• Делаем корректировку модели и начинаем следующую итерацию.
Надеюсь никакой Америки не открыл? Разве ссылочным или внутренним мы двигаем как-то по другому?
Так и получается, что не может ПФ заменить полностью ссылочное
так, так называемое ПФ не может заменить ничего. Почему? Потому что ПеФе - есть просто пипикалка (сигнализатор) пипикающий о том, что нужно усилить/ослабить те или иные составляющие .........
ида, пропипикать, не значит быть услышанным)
ида2, пора уже водочки, пора)
Очень удивляет меня тот факт, что так часто упоминается стандартное отклонение (sd, т.е. корень из дисперсии, насколько я понимаю). Какой у него смысл и вообще, более высокое или низкое sd - это хорошо или плохо? Допустим, на сайте А люди проводят в среднем столько же времени, чем на сайте Б. Но при этом на сайте А дисперсия (точнее, sd) этого параметра больше, т.е. есть небольшое число людей, которые сразу уходят и точно такая же часть людей, которая, наоборот, зависает надолго. Среднее остается таким же, что и на сайте Б, на котором все посетители проводят примерно одно и то же время. Ну и что? Какая ситуация свидетельствует о большей релевантности и ценности для пользователя??
Из доклада Яндекса на CIKM2013 стали публично известны следующие поведенческие факторы ранжирования Яндекса:
QueryDomCTR — среднее значение CTR всех документов домена по данному запросу
QueryUrlCTR — среднее значение CTR конкретного документа по данному запросу.
QDwellTimeDev — стандартное отклонение (девиация) от среднего времени пребывания на документе по запросу.
QDwellTime — среднее время пребывания посетителя на документе по запросу.
AvSatSteps — среднее количество удовлетворённых шагов по сайту. Удовлетворённый шаг — переход по внутренней ссылке после 30 секунд пребывания на документе.
AvDwellTime — общее среднее время пребывания посетителя на документе по разным поисковым запросам.
DwellTimeDev — стандартное отклонение (девиация) времени пребывания на сайте.
90thDwellTime — это верхний дециль, он же 90-й персентиль среднего времени пребывания на сайте.
10thDwellTime — это нижний дециль среднего времени пребывания на сайте.
TimeOnDomain — общее время пребывания на сайте. По всем запросам любых документов.
CumulativeDev — стандартное отклонение (девиация) от среднего времени пребывания на сайте
Лично мне абсолютно непонятно появление среди ПФ QueryDomCTR - фактор, выходящий за рамки запрос-документ.
90thDwellTime и 10thDwellTime - это очевидно факторы для "срезания" случайных переходов и накруток ПФ, и вероятно, отсеивания дорвеев.
У кого какие мысли?
P.S: Доклад Through-the-Looking Glass: Utilizing Rich Post-Search Trail Statistics for Web Search можно совершенно свободно купить за $15. Не у меня :)
так, так называемое ПФ не может заменить ничего. Почему? Потому что ПеФе - есть просто пипикалка (сигнализатор) пипикающий о том, что нужно усилить/ослабить те или иные составляющие .........
ида, пропипикать, не значит быть услышанным)
ида2, пора уже водочки, пора)
Ида - сигнал дать можно, а вот воспринять его правильно при ГС - это вряд ли.
Или Яшин алго умнее Seoшников, чьи сайты годами в топе, кто с ссылочным, а кто и без.
Да уже пора закончить сегодня НГ :)
Ида - сигнал дать можно, а вот воспринять его правильно при ГС - это вряд ли.
Или Яшин алго умнее Seoшников, чьи сайты годами в топе, кто с ссылочным, а кто и без.
Да уже пора закончить сегодня НГ :)
Даже при нормальном сайте, тяжело его воспринять и самое главное оценить и еще по нему как то ранжировать 🙅
Всех с НГ, удачи во всём 🍻