Коллеги, также наблюдаю эти качели яндекса уже второй год. Есть несколько инфо сайтов разной тематики. Весь контент писался самостоятельно и что самое ГЛАВНОЕ - многие статьи были уникальны в своей тематике. Т.е. я мог днями сидеть за вордстатом, перебирать ключи, проверять их в выдаче и находить незакрытые запросы. Естественным образом получал топ-1 позиции и уже потом эти темы разворовывались конкурентами.
После первой волны приколов яндекса я улетел на 40-50+ позиций (стандартно, как и многие из вас). При этом некоторые конкуренты с более высоким трастом оставались в топ-10. Потом уже и конкурентам там не осталось места - весь топ в вс.ру, дзене, дтф, тиньк и прочих гигантах. Даже если материал хуже и закрывает запрос не в полной мере.
Проходит время и каким-то чудесным образом мои сайты снова в топе по прошлым запросам. Оказывается, эта инфа снова полезна? Но ты долго не радуйся, через неделю-месяц-два (рандомно), ты снова улетишь на 50+.
Думаю, многие в этом рассказе увидели себя. Исходя из этого назревает вопрос: а что мы здесь продолжаем анализировать, какие советы хотим получить? По факту переливаем из пустого в порожнее.
Обидно то, что мне искренне нравится заниматься этим ремеслом, быть полезным для людей своим контентом и получать за это монету (судя по сообщениям, здесь многие этим горят). Но в нынешних реалиях просто опускаются руки. Уходить на дзен и другие площадки, чтобы заниматься паразитным сео? Для меня это равносильно тому, чтобы променять предпринимательство работе на дядю.
Посмотрите на примере работу алгоритма. Наберите в инкогнито на мобильном, например: "К чему снится добрый медведь".
В выдаче будет 1 статья, релевантная запросу. У меня она на 1 месте. Остальное на 1-2 странице будет закрывать ключ "К чему снится медведь". Хотя релевантных ключу статей много, они в не зоны видимости.
Если пользователь переходит на релевантную статью, то ее позиция укрепляется. Если большая часть пользователей выбирает другие предложения поиска, то релевантная страница переезжает на 3-5 страницу выдачи, а сама подсказка исчезает, она уже не нужна.
Поэтому сайты улетают. И позиции понижаются ещё и потому, что на сайте может быть несколько статей по одному ВЧ ключу: "К чему снится медведь". Например: добрый, злой, чёрный. белый и т.п.
Кроме того, сам поиск Яндекс регулирует подсказками. Опять набираем: "К чему снится медведь", имея в уме "добрый". Вам подсказывают: женщине, мужчине, во сне (а где ещё?).
Такими способами Яндекс упрощает выдачу, экономит свой ресурс и оглупляет население. Много сейчас людей, которые готовы тыкать кнопки в телефоне, а не пользоваться подсказками?
А в итоге специализированные статьи по СЧ и НЧ запросам не нужны (типа пользователь ими не интересуется), хотя вся ситуация смоделирована Яндексом от и до.
Попробую тоже задать вопрос.
Цитата из Яндекс справки:
Правила измерения и основные факторы, влияющие на Профицит
Профицит (и всей выдачи, и отдельного элемента) вычисляется по следующим правилам:
· Каждое взаимодействие пользователя с элементом выдачи считается успешным или неуспешным.
· Если взаимодействие признано успешным (это может произойти, например, если пользователь задал запрос, перешел на внешний сайт и не вернулся в Поиск продолжительное время), то метрика увеличивается на положительную величину.
· Если же взаимодействие было признано неудачным (например, пользователь быстро вернулся на страницу с результатами поиска или пользователю пришлось переформулировать запрос, чтобы найти нужную информацию, а также если пользователь решил задачу с помощью другого элемента), то метрика уменьшается. Наибольший штраф при этом получают наиболее заметные элементы, занимающие большую площадь на выдаче и находящиеся на привлекательных для пользователя местах.
· Если вся выдача не решила задачу пользователя и запрос пришлось переформулировать, то метрика также уменьшается.
Метрика учитывает как клики на выдаче (например, по ссылкам, по карточкам организаций, телефонным номерам), так и полностью бескликовые взаимодействия (пользователь нашел нужную информацию в фактовом ответе и другие). И те, и другие могут быть частью успешного взаимодействия, которое увеличит метрику.
Источник: https://yandex.ru/support/webmaster/search-quality.html
Написано предельно ясно, но уточню. Отрицательные метрики сайт получает, когда:
Показан пользователю в поиске, но им не выбран.
Выбран пользователем в поиске, но не закрыл запрос, пользователь вернулся в поиск и уточнил запрос или выбрал другой сайт.
Теперь предлагаю подумать, какой сайт быстрее наберёт «отрицательные метрики»:
- сайт, содержащий 1000 статей, или сайт с 1 000 000 статей?
- сайт, обновляющийся 1 раз в неделю, или сайт, на котором команда копирайтеров ежедневно выкладывает по 100 статей?
На форуме часто поднимается вопрос, почему сайт с экспертными статьями выпал из поиска. Вот ответ: его «отрицательные метрики» накопились очень быстро, из-за чего поисковый алгоритм выкинул сайт на 5-10 страницы.
Здесь хочу задать вопрос: а эти показатели имеют отношение к качеству материалов на маленьких сайтах? Не думаю, просто статистика.
Но не всё так просто. Алгоритм время от времени, вероятно, обнуляет метрики. Этот вывод, как ни странно, подтверждается статистикой из Гугл консоли.
Обратите внимание на пики показов. Они происходят с заметной регулярностью. На этом сайте Гугл проиндексировал 719 страниц. Их показывает пользователям, накапливает «отрицательную карму» и забывает примерно на месяц.
В Яндексе, думаю, происходит аналогично. На такой вывод наталкивает «любовь» обоих поисковых систем к большим порталам типа Дзен, КП и другим. В теме «Яндекс колбасит» много сообщений о том, что сайт то возвращается на высокие позиции, то опять исчезает.
Теперь вопросы:
Вы обсуждали этот алгоритм со Сливинским? В частности, как этот алгоритм способствует показу пользователям качественных материалов?
А ещё, как подобная схема «выявления достоверной, качественной информации в сети» предоставляет «режим наибольшего благоприятствования» большим порталам за счёт мелких частников и одиночек – любителей.
Чем подтверждается авторитетность команд, знающих «всё обо всём»? И тому подобное.
Почему поисковый алгоритм берёт на себя право отсекать от пользователя информацию?
Сразу предложение.
На мой взгляд, вышеизложенные критерии сбора отрицательных метрик должны бытьотносительными. Например, абсолютную величину нужно делить на: «объем сайта», «количество авторов» или «количество обновлений». Возможно, это уравняет шансы.
А кто-то может подсказать, что это за переходы со страниц yandex.ru/searchapp, yandex.kz/searchapp, yandex.com/searchapp, yandex.by/searchapp.
Это из отчёта liveinternet переходы со страниц. Их уже больше, чем переходов из поисковых систем.
Одновременно Метрика их не показывает в отчёте переходов с сайтов или я не знаю, как посмотреть. Проблема в том, что за последнее время выросло число прямых заходов (сайт обычный статейник развлекательной тематики) и % отказов. Не знаю, куда копать
https://text.ru/
Вставляете текст вашей статьи. Проверка уникальности. Вам выдадут список воров с точностью совпадений до 10%. Не реклама
Я задала совсем другой вопрос
Белых? Или под риском бана от поисковиков?
Это как, блок ставить рся а потом адсенс?
Приблизительно. У поддержки адфокс вполне понятные разъяснения на ютубе. Там все подробно объяснено.