- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Интересно было бы знать, каков процент отказов у Википедии. Куда большинство пользователей попадают из поисковиков, сразу находят нужную информацию и уходят.
Так я об этом и говорю. Пришел, прочитал, свалил - значит и пришёл целевым и статья путёвая. А начал копошиться, лазать, чего-то ещё выискивать, значит и пришёл не совсем туда, и статья естественно не совсем про то.
Единственное что, в статьях вики много гиперссылок на другие документы, заинтересованному читателою по ним ещё пройитсь самое оно, лично я так и делаю очень часто. Но полагаю что в подавляющем большинстве случаев схема такая. Набрал в яндексе "пубертатный период", зашёл на вики, прочёл, вышел. Отказ 100%. Польза 100%.
А какая страница будет более адекватной? Не та ли, попав на которую из поисковиков, пользователь будет делать кучу кликов и ползать (из адекватной страницы!) по всему сайту?
Да, есть в этом смысл. Но надо учитывать вот что:
допустим, посетитель ищет информацию о каком-то ежегодном событии произошедшем недавно, например, "событие 2010". Поисковик естессно ему выдает старейшую страницу (позапрозапрошлогоднего события, ака "событие 2007"), которая имеет какой-то траст в глазах поисковика, кучу ссылок на себя и т.д.
Что сделает ленивая пустышка? Она тут же закроет страницу и всё. Точка.
А так алгоритм мог бы постепенно опускать устарвешие страницы и поднимать свежие. На свежих страницах посетитель будет задерживаться дольше, прочитает, и с большой долей вероятности перейдет по ссылкам типа "новости по теме" или контекстные (нерекламные) ссылки. В результате отказов меньше, пустышек меньше, нормальных посетителей больше.
Понятно, что есть в этой логике несовершенства, но... почему бы и нет?
самый клевый пример - прогноз погоды (к примеру, на яндексе)... Просмотр страницы занимает секунды 3. потом она закрывается.
В общем, я в показатель отказов как влияющий на ранжирование фактор не верю... даже если бы по техническим причинам яндексу удалось бы собрать и обработать такой гигантский поток информации (во что я тоже не верю) о посещенных страницах, все равно эти данные не поддаются однозначной интерпретации..
Так я об этом и говорю. Пришел, прочитал, свалил - значит и пришёл целевым и статья путёвая. А начал копошиться, лазать, чего-то ещё выискивать, значит и пришёл не совсем туда, и статья естественно не совсем про то.
НУ а есть у меня заходы, там где посетитель после того как попал на сайт пролистал более 100 страниц, и это как раз и есть «мой клиент». Рекорд пока составляет более 200-т страниц за 3 часа.
Думается мне, если Гугл Аналитикс выносит цифру показателя отказов в основной ряд счетчиков и даже предлагает поэкспериментировать для снижения отказов - вероятно эта цифра ему важна. Как в метрике Яши с этим, не знаю - что-то сыкотно ее ставить :)
Также отмечу тенденцию Гугла и Яши стремиться выдавать пользователю самые релевантные и интересные сайты. Оба поисковика неоднократно это озвучивают - сайт должен быть ин-те-рес-ным для посетителя! Не удивлюсь, если внутренние переходы и время, проведенное на сайте может стать очень приоритетным для ПС (последний АП с обнулением ТИЦев 😒 тому пример)
Интересный показатель- количество просмотров сайтов с серпа.
Т.е. если пользователь просмотрел весь ТОП-10 по одному запросу, перешел на вторую, третью страницу- это сигнал, что выдача не устраивает пользователя:)
Но вот инфы у владельца одного сайта, по этому показателю нет :(
А я так понял, что отказ -- это когда не просто один просмотр, а когда человек зашёл на страницу и сразу её закрыл. Т.е. аналитикс за отказ считает именно очень малое время, проведённое на странице, как будто это робот зашёл, а не человек. А сам по себе один просмотр страницы, скажем в течение 1-10 минут -- это, наоборот, идеальный результат.
И ещё момент: когда настраивали контекстные объявления (адвордс), то сайты, по переходам с которых было много отказов, добавляли в чёрный список, чтобы не крутить на них "бесполезную" рекламу. Эффективность рекламы сильно выросла после нескольких таких фильтраций. Хотя "клиент" делал как раз один просмотр: зашёл, увидел, купил.
Интересный показатель- количество просмотров сайтов с серпа.
Т.е. если пользователь просмотрел весь ТОП-10 по одному запросу, перешел на вторую, третью страницу- это сигнал, что выдача не устраивает пользователя:)
Не всегда.
Может быть, он и на первой странице нашёл, что ему нужно (причём хоть на каждом из 10 сайтов топа-10), и во второй десятке, и в третьей...
"Нашёл что ему нужно" и "нашёл всё, что ему нужно" - не синонимы.
При этом вполне возможны ситуации, когда на одном сайте (любом, в принципе) найти всё, что нужно по определённому предмету, невозможно в принципе.
Скорее всего, но роль мизерная, так как весьма сомнительный и "накручиваемый" показатель.
всё таки без учёта времени, проведённого на сайте, показатель отказов довольно слабо характеризует качество сайта