- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Они создали кнопку «бабло!»
и удержать ползателей одной только релевантностью не получится.
- и артефакты, к которым относятся клик-роботы, и различные флешмобовые акции, которые могут подходить под запрос пользователя, но не сообщать нужную ему информацию.
Зная цепочки запросов других пользователей, можно дополнить выдачу наиболее вероятными ответами. Например, документы, на которые никто никогда не кликал, при достаточной частоте самого запроса можно исключить, а вместо них выдавать документы, которые по цепочке запросов можно назвать хорошими
докладчик предложил рассмотреть «страшный объект», который называется графом запросов, где узел – это запрос, ребро – количество пользователей, переформировавших один запрос в другой, поиск – это случайное блуждание по данному графу. При этом выдача формируется на основе наиболее вероятных точек остановки поиска. Т.е. рассматриваются все варианты поведения пользователя, для того чтобы найти точки, где предыдущие пользователи вероятней всего нашли ответы
Результатами исследования стали большая привлекательность (не релевантность, а вероятность клика) выдачи и большее разнообразие выдачи.
Т.е. модели не были построены на одном простеньком факторе, легко укладывающемся в головах оптимизаторов.
Они создали кнопку «бабло!»
и удержать ползателей одной только релевантностью не получится.
Это единственное, над чем они плодотворно поработали и то при причине заботы о себе, любимых.
Раньше такое было у SpyLog. Достаточно было просто покликать страницы с счетчиком и яша их быстренько находил;)
Слегка подправляете код аналитики и показатель отказов приходит в норму😂
Можно подробнее?
Можно подробнее?
Что бы я не извращался посмотрите в поиске по форуму была целая тема с кодам и т. д.
- это доказано?
а в общем интересная теория, спс
а как вы считаете влияют ли установленные метрика и аналитикс?
метрика и аналитикс конечно.
счетчики тоже возможно, хотя наверное очень минимально, на многих сайтах просто нет открытых счетчиков. имхо это чуть ли не в последнюю очередь влияет (как пример, два сайта очень "рядом" в рейтинге гугла, он смотрит открытый счетчик, и если и там и там есть, то ставит "выше" с посещалкой)
setTimeout("_gaq.push(['_trackEvent', '15_seconds', 'read'])",15000);
Слегка подправляете код аналитики и показатель отказов приходит в норму😂
да несмотрятся отказы с аналитикса ))) для этого реклама гугла есть с её кукисами.
заходишь с поиска, и кукисы рекламы записывают тебя )))
а отказы, большинство неправильно понимает.
...
Понятное дело, что когда пользователь нашел в ПС по целевому запросу ваш сайт, перешел по ссылке на него, и вернулся опять в поиск - это плохо, и количество такие отказов - влияние негативное...
...
а то что много людей открывает сразу кучу окон? )))
Аналогично со временем проведенным на странице. Считается не просто время, а время активности (я не про аналитикс/метрику а про ПФ)
всё имхо
Я считаю, что Google пытается оценивать ПФ конкретного сайта относительно поискового запроса. Т.е. релевантность запросу по мнению людей. Он делает "слепок" ПФ данного сайта и потом, если внешние и внутренние факторы позволяют, ставит этот сайт в ТОП 10 по проверяемому запросу на некоторое время. Как я заметил: то 1 раз из 2 обновлений СЕРПА, то 1 раз из 20. Дальше делает вывод и оставляет сайт в этом топе по этому запросу, либо откидывает.
По поводу отказов немного: уверен, что в Google понимают, что этот показатель не является показателем релевантности страницы запросу. Например: запрос "купить тапочки в Урюпинске" выдет страницу ИМ с полной информацией и фотками об искомых тапках и крупно контактный телефон. Юзер звонит по телефону и заказывает тапки, либо получает уточняющую инфу. Страница полностью релевантна запросу и удовлетворяет запрос пользователя при поведенческом "отказе".
Всё - сугубо имхо.
Я считаю, что Google пытается оценивать ПФ конкретного сайта относительно поискового запроса. Т.е. релевантность запросу по мнению людей. Он делает "слепок" ПФ данного сайта и потом, если внешние и внутренние факторы позволяют, ставит этот сайт в ТОП 10 по проверяемому запросу на некоторое время. Как я заметил: то 1 раз из 2 обновлений СЕРПА, то 1 раз из 20. Дальше делает вывод и оставляет сайт в этом топе по этому запросу, либо откидывает.
А что делать с запросами, которые бывают ~ 1 раза в год? Их общая доля может быть и 30%