- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ну тут burunduk наверное имел в виду, что найдя ответ на вашем сайте, он не будет возвращаться к выдачи и искать ответ на других сайтах.
Но как я на своем примере объяснил - так не всегда бывает. Зачастую пользователь не ищет конктретный ответ, а сравнивает что то с десятка разных источников
Имеется ввиду среднестатистические данные. Да, сравнивает, но возвращается в выдачу, пусть даже ненамного, но реже.
Имеется ввиду среднестатистические данные. Да, сравнивает, но возвращается в выдачу, пусть даже ненамного, но реже.
Ну тут возникает еще другой вопрос. Какой траф гонит яшка на сайт. День на день не приходится. Бывает Средняя длительность 3 минуты, колличество просмотренных страниц на посетителя 2.5 ..... Бывает когда 1 минута и просмотров на посетителя 1.2 страницы. Плюс к этому конкуренты подгадить захотят - зайдут выйдут зайдут выйдут..... и как тут в этой каше ПФ определять?
По моему, если яша еще не научился читать мысли, то качество контента можно определить только взяв среднестатистического пользователя и проанализировать его действия на конкретной странице......все остальные выводы яши это гадание на кофейной гущи
ну тут не все так однозначно.
всё там достаточно просто ;)
поищите информацию о том что такое поисковая сессия
а заодно доклад Калинина (mail.ru) про поведенческие, можете в вебмастере mail добавить сайт, там показываются некоторые значения пф на их поиске
"и для этого достаточно проанализировать поведение пользователя на выдаче, а не на вашем сайте"
Вот это не совсем понял
Есть картина кликов по странице выдачи.
А что там делают / как кликают на вашем сайте — для выяснения этого и возможностей может не быть (ну нет метрики/аналитикса / хрома).
достигнул пользователь свою цель или нет
Такими человечьими понятиями алгоритмы не могут оперировать.
Есть ли тупые признаки ...
Понятно, что есть разные сайты. Возьмем инфосайт к примеру - статейник 100-150 статей.
Какие показатели отказов и глубины просмотров должны быть минимальны, чтоб быть в топ 10 по многим запросам?
Другие поведенческие в рассчет не берем)
Время на сайте и комментарии. 🍿 вот и все поведенчиское.
Я вот себе недавно панель с ВК присобачил , пока не понятно дает она ченибудь или нет , но люди вроде пишут
Ну вот, например - https://metrika.yandex.ru/dashboard?group=day&annotations_filter=&period=quarter&id=11390230
Это шутка такая?
У меня глубина просмотров, время на сайте и показатель отказов лучше чем на вашем примере, а сайт без трафа почти
Условия скорее необходимые, но не достаточные.
показатели отказов и глубины просмотров должны быть минимальны, чтоб быть в топ 10 по многим запросам?
Да и скорее вообще не необходимые)
Вообще ответили на вопрос- пользователь должен решить свою проблему.
А метрик по поведенческому может быть много Поведенческие (кликовые) факторы в информационном поиске. Обзор.
ответили на вопрос- пользователь должен решить свою проблему
Ну это антиспамеры пиарщики такую лапшу вешают.
Но между собой они не забывают и свой интерес.
Т.е. на странице выдачи СКР решает свои задачи:
искалки давно замешивают в выдачу собственные агрегационные и датаманинговые вертикали, ванбоксы и колдунщики. Их число и расположение давно уже не описывается простыми правилами, корнажирование 20−50 вертикалей (типичное число) это такой же интегрированый компонент как и ранжирование и он нацелен на максимизацию метрик по всей странице в целом. Вертикали это брендинг на 150% отрежьте из страницы Гугла блок Новостей, Финансов, Блогов, Видео, Изображений, Переводную секцию, Персонализированный результат, Врезку локального адресного поиска на карте и т. д. тп. Что останется? 3−4 ссылки,
Но и эти ссылки стоят там потому что на странице есть вышеназванное!
Если бы его не было, то ссылки должны быть ДРУГИМИ!
https://roem.ru/03-12-2009/124756/ex-mailru-smenit-yandeks-na-google/#comment-54649
А без понимания этой хрени (ваши головы ведь окучены сказками колмановской) не сделаете вы ничего с «хорошими» ПФ — зависящими не от вас...
Вот вам и предлагается поработать на деловую химеру.
Такими человечьими понятиями алгоритмы не могут оперировать.
Есть ли тупые признаки ...
простое изменение поисковой сессии ;)
Тут вот какой примечательный момент. Определить идеально сочетание поведенческих из каких-то определенных показателей невозможно.
Для каких-то сайтов где характерно долгое пользовательское пребывание (типа форума и информационных) - одни показатели, для других (например, служба такси, где нужно посмотреть номер телефона) - совершенно другие.
Важнее, чтобы показатели не ухудшались больше своих нормативных и вот за этим реально надо следить. Только для начала нужно определить свои нормативные из выборке полезных вам сессий.