- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Может накидаете публикаций или собственных мыслей, если такие вещи кому-нить интересны в принципе :)
Вот думаю про анализ поведения пользователей на страницах выдачи. На один и тот же запрос есть два+ документа, один из которых максимально релевантен, второй по мнению некого абсолюта практически не релевантент запросу. Но оба документа интересны пользователю, по обоим он кликает, и уходит, не вводя более уточняющих запросов. Как просчитывать такие ситуации? Техническим анализом пытаться высчитать "левые" документы? Но там может быть порнушка, которая интересна всем, и статистически мы ничего не выцепим. Вроде как остается вариант с классификацией по тематикам как документов, так и запросов. Но если бы все было так ажурно, то документа на левую тему просто не было бы в серпе. Или был бы?
в течение нескольких последних лет это является одной из бурно теоретически и экспериментально изучаемых тем - смотрите Learning to Rank и выступление в Яндексе Байесу-Йетса в прошлом году
я наблюдаю только по своим сайтам которые занимают несколько подряд идущих позиций. СТР второго почему-то всегда выше чем у первого, а у червертого разительно меньше чем у третьего.
Ну и красивая фавикошка дает о себе знать конечно ))
response, у вас явно - посетитель ориентировался по сниппету. В том числе НПС, а то, что написано в анкоре НПС не обязательно написано на сайте. Плюс сниппет НПС может формироваться из ЯК, дескрипшен. Часто бывает заходишь по НПС - релевантности ноль - не нахожу искомого ни в тексте страницы ни в сохранёнке и выхожу обратно.
А ПС - из-за ссылочного ранжирования, часто хватает найден по ссылке. Потому сайт и в серпе.
Можно по времени нахождения на сайте сравнивать. У нерелевантного будет меньше.
response, у вас явно - посетитель ориентировался по сниппету. В том числе НПС, а то, что написано в анкоре НПС не обязательно написано на сайте. Плюс сниппет НПС может формироваться из ЯК, дескрипшен. Часто бывает заходишь по НПС - релевантности ноль - не нахожу искомого ни в тексте страницы ни в сохранёнке и выхожу обратно.
А ПС - из-за ссылочного ранжирования, часто хватает найден по ссылке. Потому сайт и в серпе.
речь-то не о том, почему сайт в серпе :)
Можно по времени нахождения на сайте сравнивать. У нерелевантного будет меньше.
а вот и нет. искал "обои", нашел обои и порнуху. обои сохранил и закрыл сайт, на порнушке задержался. конечно, порнушный сайт не то чтобы без слова "обои" был, но обоев там была ровно одна штучка, на страничке модели, в остальном это был обычный порно-блог.
вопрос в том, что ПС, казалось бы, должна поднять релевантность порно-блогу, равно как и тому сайту по обоям, раз я ушел на оба этих сайта (причем на порнушку кликнул уже после линка на сайт с обоями). Но очевидно ведь, что порнушка не релевантна обоям в целом.
Перефразируя: как [при анализе переходов с серпа] ПС должна относиться, и как должна технически выявлять страницы, которые просто понравились пользователю, а не являются релевантными запросу?
Перефразируя: как [при анализе переходов с серпа] ПС должна относиться, и как должна технически выявлять страницы, которые просто понравились пользователю, а не являются релевантными запросу?
1. А она должна? Там же сейчас по другому вроде.
2. Если анализ и ведётся, то не по единичному посетителю. И с большой погрешностью. Вон у асессоров сходимость говорят 40%. Или вы хотите просто потеоретизировать как это можно сделать?
Лично мое наблюдение на этот счет - в директе ранее, когда было только 2 объявления в спецразмещении, второе (нижнее) работало однозначно лучше.
Сейчас когда спецразмещений три - не анализировал.
А вот относительно выдачи - извините за флуд, почти анекдот - мне одна девушка на полном серьезе говорила, что она вообще никогда не кликает на первую страницы выдачи яндекса, а сразу идет на вторую или вообще третью, так как - "если объявления на первой странице, значит у них очень дорого".... и между прочим эта девушка собирается красный диплом в не самом плохом вузе получить.....
Может накидаете публикаций или собственных мыслей, если такие вещи кому-нить интересны в принципе :)
Вот интересная статья - http://www.google.com/support/websiteoptimizer/bin/answer.py?hl=ru&answer=61149
Можно воспользоваться при установке google analitics
1. А она должна? Там же сейчас по другому вроде.
2. Если анализ и ведётся, то не по единичному посетителю. И с большой погрешностью. Вон у асессоров сходимость говорят 40%. Или вы хотите просто потеоретизировать как это можно сделать?
ну, клики-то до сих пор считают, значит это кому-нибудь нужно. но вообще у меня свои задачи. я вижу на собственных кхм.. серпах, что люди часто находят несколько документов, на которые уходят, не возвращаясь на серп. Есть определенный процент откровенно нерелевантных переходов, оканчивающих работу юзера с выдачей. Т.е. юзер нашел и то, что искал, и попутно нашел что-то совершенно левое, попавшее в топик из-за кривизны ранжирующего алгоритма, что, тем не менее, его заинтересовало. Вот и ищу варианты, как, кроме полного отематичевания всех запросов и документов, занулевывать данные о подобных левых переходах.
Т.е. юзер нашел и то, что искал, и попутно нашел что-то совершенно левое, попавшее в топик из-за кривизны ранжирующего алгоритма, что, тем не менее, его заинтересовало.
Часто у меня так бывает, при глубоком поиске, когда наравне с нужными данными ещё несколько штук сайтов в избранное откладывается.. Но знаете, может быть не уход пользователя с серпа, а переход в другой браузер например. Бывает, что в одном сайт криво отображается, тогда перехожу в другой.
ПС может данные и накапливает, но ими не руководствуется. Маяки - расставляют асессоры. По ним строится идеальная выдача. А потом сравнивается с текущей.. Далее или откатывается алгоритм или правится следующей версией.
я вижу на собственных кхм.. серпах, что люди часто находят несколько документов, на которые уходят, не возвращаясь на серп. Есть определенный процент откровенно нерелевантных переходов, оканчивающих работу юзера с выдачей. Т.е. юзер нашел и то, что искал, и попутно нашел что-то совершенно левое, попавшее в топик из-за кривизны ранжирующего алгоритма, что, тем не менее, его заинтересовало. Вот и ищу варианты, как, кроме полного отематичевания всех запросов и документов, занулевывать данные о подобных левых переходах.
Только статистика. Релевантные сайты - заинтересуют большее число юзеров пришедших по определённому запросу. А нерелевантные, но интересные - всех по разному.
В конкурентных топах, это решается помимо асессоров ещё и стуком - о том, что нерелевантный сайт в топе по такому-то запросу.
Лично мое наблюдение на этот счет - в директе ранее, когда было только 2 объявления в спецразмещении, второе (нижнее) работало однозначно лучше.
Сейчас когда спецразмещений три - не анализировал.
А вот относительно выдачи - извините за флуд, почти анекдот - мне одна девушка на полном серьезе говорила, что она вообще никогда не кликает на первую страницы выдачи яндекса, а сразу идет на вторую или вообще третью, так как - "если объявления на первой странице, значит у них очень дорого".... и между прочим эта девушка собирается красный диплом в не самом плохом вузе получить.....
Она же, видимо, не компьютерное образование получает. Откуда же ей знать, по каким принципам происходит ранжирование? Имхо, это не говорит о ее дремучей глупости. Между прочим, есть категория людей (не такая маленькая), которая думает, что все места в поисковике проплачены.:)