- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые коллеги!
Устойчивость алгоритмов ранжирования возможно понимать
в двух смыслах.
1. Небольшие изменения внешних или внутренних параметров сайта не
слишком сильно изменяют его позиции в выдаче.
2. Небольшие изменение параметров поискового алгоритма не слишком
сильно меняют выдачу.
Изменение алгоритма и сильное изменение выдачи выходит за пределы определения
устойчивости.
Как ваше мнение, основанное на опыте, т.к. количественные данные получить
затруднительно: Являются ли поисковые алгоритмы (Для Яндекса и Google)
устойчивыми в 1 или 2 смыслах?
ИМХО, не являются.
vf2005,
по п1. алгоритмы более-менее устойчивы, если а) сайт в топе или близко к тому б) не попасть под фильтр, в) конкуренты не делают резких движений. Если вы даже ничего не меняете, а конкуренты работают, то Ваш сайт будет двигаться. А в районе 50-ой позиции и дальше сайты скачут вверх-вниз на несколько страниц постоянно.
п2. Не устойчивы. Асессоры для того и работают постоянно, чтобы выдача менялась. Так что некоторые сайты сильно меняют позиции, из-за этого остальные постоянно смещаются. Чем дальше позиция, тем больше движения. После смены алгоритма довольно долго и сильно ощущается его подстройка.
Уважаемые коллеги!
Устойчивость алгоритмов ранжирования возможно понимать
в двух смыслах.
Устойчивость можно и по другому понимать. :)
Ваши "устойчивости" алгоритмов - на самом деле устойчивости конкретного сайта, а это никому не интересно в общем случае. Алгоритму нужно правильно ответить на вопрос пользователя, а не показать ему именно Ваш сайт, даже если Вы считаете его самым расчудесным.
Исключения составляют сайты, для перехода на которые большое число пользователей задает какой-то запрос, отличный от имени домена. Такие сайты по таким запросам должны быть в топе, но таких явно не много.
Алгоритму нужно правильно ответить на вопрос пользователя, а не показать ему именно Ваш сайт, даже если Вы считаете его самым расчудесным.
Полностью согласен.
И при такой постановке вопроса есть простой числовой критерий устойчивости алгоритма поискового ранжирования: число кликов посетителя на странице результатов поиска и "высота" кликов.
Если пользователь откликал 3-4-5 ссылок со страницы результатов, очевидно, что по первому клику он не получил искомого, потому и кликал повторно.
Если пользователь первый же клик сделал не по первому результату, вполне очевидно, что он уже в снипете увидел нецелесообразность перехода.
Таким образом, получается простая формула: количество кликов на странице умножаем на позицию первого клика. Чем ниже средняя цифра - тем устойчивее и эффективнее алгоритм поискового ранжирования.
Ваши "устойчивости" алгоритмов - на самом деле устойчивости конкретного сайта, а это никому не интересно в общем случае. Алгоритму нужно правильно ответить на вопрос пользователя,
С этим я не соглашусь. Задачи Яндекса - это его задачи, а не пользователей. Он целенаправленно работает над тем, чтобы люди кликали контекст. Сегодня - это у него главная задача. Вторая - чтобы владельцы сайтов предпочитали контекстную рекламу поисковому продвижению. Третья - удержать монополию на поиск. Эта задача решается не только качеством поиска, но и маркетингом. А уж потом - результаты поиска.
Он свои задачи выполняет. За последние несколько лет CTR ссылки на поиске неуклонно снижается. Попасть в топ стоит все дороже. Положение в топе все менее устойчивое.
Надо сказать, что оптимизаторы ему в этом помогают, увеличивая конкуренцию. По ВЧ от Яндекса уже мало, что зависит - все решают оптимизаторы.
Кстати, тут спрашивали и про Гугл. Так вот в его выдаче сайты скачут меньше, т.е. его алгоритмы более устойчивы.
Химик78 добавил 23.07.2010 в 21:38
И при такой постановке вопроса есть простой числовой критерий устойчивости алгоритма поискового ранжирования:
Если пользователь откликал 3-4-5 ссылок со страницы результатов, очевидно, что по первому клику он не получил искомого, потому и кликал повторно.
Это в корне не верно. Количество кликов зависит от задачи поиска. Если человек собирает информацию, то кликает много. Если при таком поиске он кликает мало, то это значит, что результаты не качественные.
Раньше (несколько лет назад) в верхнем экране кликали примерно с вероятностью 0,5. Т.е. кликали примерно на половине ссылок. Теперь вероятность клика упала раз в двадцать - вообще сумма CTR всех позиций сильно ниже единицы. Т.е. человек часто вообще не кликает ничего, а перефразирует запрос.
Это соответствует задачам Яндекса - человек должен делать повторный поиск, смотреть на невнятные снипеты и на четкие контекстные объявления. И делать понятный выбор.☝
Если пользователь откликал 3-4-5 ссылок со страницы результатов, очевидно, что по первому клику он не получил искомого, потому и кликал повторно.
Нет, все зависит от задачи, которую ставил пользователь. Например, при покупке товара он может и 20 ответов скликать, ища лучшие для себя условия.
С этим я не соглашусь. Задачи Яндекса - это его задачи, а не пользователей. Он целенаправленно работает над тем, чтобы люди кликали контекст. Сегодня - это у него главная задача. Вторая - чтобы владельцы сайтов предпочитали контекстную рекламу поисковому продвижению. Третья - удержать монополию на поиск. Эта задача решается не только качеством поиска, но и маркетингом. А уж потом - результаты поиска.
С таким подходом Яндекс давно бы начал сдуваться, но доказывать Вам это бессмысленно. :)
За последние несколько лет CTR ссылки на поиске неуклонно снижается.
Покажете официальную статистику или независимую на большой выборке?
Кстати, тут спрашивали и про Гугл. Так вот в его выдаче сайты скачут меньше, т.е. его алгоритмы более устойчивы.
К Вашему сайту? Я выше писал, что Вы путаете устойчивость алгоритма с устойчивостью Ваших позиций, а это совершенно разные вещи. :)
Раньше (несколько лет назад) в верхнем экране кликали примерно с вероятностью 0,5. Т.е. кликали примерно на половине ссылок. Теперь вероятность клика упала раз в двадцать - вообще сумма CTR всех позиций сильно ниже единицы. Т.е. человек часто вообще не кликает ничего, а перефразирует запрос.
Аналогично, покажите официальную статистику.
В целом "средний CTR" должен упасть, т.к. сегодня в некоторые дни поток сео-запросов может составлять до 30% от общего. Понятно, что по ним CTR равен нулю. :)
Это соответствует задачам Яндекса - человек должен делать повторный поиск, смотреть на невнятные снипеты и на четкие контекстные объявления. И делать понятный выбор.☝
Ну так сделайте четкие сниппеты, это же не сверхзадача. Наймите математиков и все у Вас получится. :)
С таким подходом Яндекс давно бы начал сдуваться, но доказывать Вам это бессмысленно. :)
Я же написал, что Я успешно решает другие задачи, кроме поиска. Хороших поисковиков у нас несколько, а доминирует один. И не потому, что лучше ищет, а потому, что делает успешные ходы, вроде Яндекс бара. ТС надо знать, как в этих условиях решать его задачи по его сайту.
Покажете официальную статистику или независимую на большой выборке?
Это мое ИМХО. Я его озвучил для ТС, он спрашивал мнение - читайте первый пост. А Вы можете доказывать обратное.
К Вашему сайту? Я выше писал, что Вы путаете устойчивость алгоритма с устойчивостью Ваших позиций, а это совершенно разные вещи. :)
Аналогично, покажите официальную статистику.
Ну так сделайте четкие сниппеты, это же не сверхзадача. Наймите математиков и все у Вас получится. :)
Снипеты делает Яндекс, его они устраивают.
Я же написал, что Я успешно решает другие задачи, кроме поиска. Хороших поисковиков у нас несколько, а доминирует один. И не потому, что лучше ищет, а потому, что делает успешные ходы, вроде Яндекс бара. ТС надо знать, как в этих условиях решать его задачи по его сайту.
Вы написали, но отранжировали задачи не верно, с моей точки зрения. Я считаю, что главной задачей все же является качество поиска. Вот сейчас его прилично улучшили в регионах и опять ушли в отрыв. Прямой задачи убить сео вообще нет, а на Директ все равно будут кликать, как показывает практика.
Это мое ИМХО. Я его озвучил для ТС, он спрашивал мнение - читайте первый пост. А Вы можете доказывать обратное.
Я в Вашей фразе "За последние несколько лет CTR ссылки на поиске неуклонно снижается" "неуклонно" понял как "сильно". С чем не согласен. Хотя, если, например, CTR снижался бы на 0.1% в год, то тоже как бы "неуклонно"... :)
Есть кулуарные заявления официальных лиц о том, что % кликов на Директ сейчас снизился. С другой стороны - трафик растет. Т.е. CTR при этом конечно может немного снижаться, но абсолютное количество трафа из выдачи должно расти.
Мы говорим об устойчивости в том смысле, как обозначил вопрос ТС - идет разговор именно об устойчивости позиций сайта. А Вы пытаетесь увести в сторону. Никто не отрицает устойчивость информационного содержания выдачи, просто сейчас не об этом.
ТС в заголовке обозначил устойчивость алгоритма, а в посте - вроде бы устойчивость сайта. После чего слился. Я увожу в сторону названия темы, что логично. :)
Панель ВМ Вам ее показывает. Там отчет есть по CTR. Куда уж официальней... А еще я несколько лет занимаюсь прогнозированием поискового трафика. Там есть параметр - CTR. Найдите старые статьи на эту тему и сравните со свежими.
Панель ВМ всем разное показывает, но выборки маловаты. На малых выборках я не замечаю снижения CTR. А маркетологические статьи всерьез неохота принимать, хоть старые, хоть новые. :)
Это Вы тут с кем разговариваете? Этим мало кто занимается, т.к. это не имеет экономического смысла, выгоднее уходить в контекст. ИМХО ;)
Снипеты делает Яндекс, его они устраивают.
Кому-то выгоднее в контекст, и это не плохое решение. Кому-то выгодно по другому, все нужно считать.
Что вы считаете Небольшим изменением внешних или внутренних параметров сайта, Небольшим изменением параметров поискового алгоритмма?
G00DMAN, ну вот и расставили точки над i, спасибо. :)
CTR в поисковой выдаче, как я написал выше, по моим данным за пять-шесть лет снизился с 0,4-0,5 до 0,02-0,05. Во всяком случае, так изменился коэффициент в формулах по прогнозированию трафика. Интересно, что сумма CTR всех ссылок, теперь сильно ниже единицы, т.е. чаще не кликают ни одной ссылки.