Recoba

Recoba
Рейтинг
112
Регистрация
04.04.2008

Вас подвинули те, кто продвигался в сео. Всё, что можно сказать по вашим входным данным.

Я бы еще отметил долю брендового трафика. От размера этой доли тоже зависит общий CTR сайта на выдаче.

Коммерция, мебель.

топ-1 - 28,35% (хорошая доля бренда)

топ-2-3 - 8,39%

топ-4-10 - 3,76%

топ-11-50 - 0,68%

Данные за первые 27 дней сентября сего года.

Еще при высокой доле контекста (директ) - повторные визиты из органики растут. Причем растут с более высоких мест.

Поэтому CTR сайта по больнице зависит еще и от этого (на первый взгляд неочевидного параметра)

tysson:
Нет, ну если одностраничник, то эту логику можно применить. А так конечно сложновато.
Хотя конечно если все ядро в топе, то стр будет зашкаливать, но такого не бывает.

ну вот у меня пример. 2 категории, по обоим около 95% всех ключей в топ-10. По спросу примерно равны категории. В одной позиции большинство топ-3 сидят. В другой 7-10 места. Тайтлы везде шаблонные (за редким исключением для ВЧ), дескрипшны, заголовки h1, мини сео-тексты - шаблонные. Соответственно, там где топ-3 железно - там CTR в 3 раза почти выше, чем в другой категории.

Все ядро в топе - это сейчас так: если на 7-10 местах ядро, то получаешь Х переходов. Если топ-3 - получаешь 3Х переходов. Раньше такой разницы не было)

Это еще и позиция.

100 показов в топ-1 и 100 показов на 10 месте сами знаете какой CTR формируют. А еще 100 показов на 19-20 местах хорошо понижают CTR.

predm:

нет задачи делать качественной выдачу, хорошая выдача в коммерческом секторе - это деньги мимо кассы поисковика, поэтому в ближайшие годы не заметно будут добавлять по объявлению в директ и в итоге придем к 10 объявлениям и 20 строкам выдачи, до которых добираться никто не будет.

Если народ в поисках товара идет искать в Яндекс - то почему бы не обработать эту аудиторию и не заработать на ней?

Если 20 сайтов в выдаче (из них 10 директ) будут не уменьшать долю тех, кто приходит за товаром на поиск Яндекса, то значит этих людей устраивает то, что они находят в этих 20 сайтах. А может и в первых 2-3 результатах директа. Значит там хорошие сайты, с хорошим сервисом, с хорошими ценами. В противном случае люди бы возвращались в выдачу и доходили бы до 19-20х строчек в поисках нужного.

В коммерции конечная цель не переход, а продажа. Если спецразмещение дает продажи - коммерсы будут там развиваться. А не надеяться только на топ-20 органики.

В очередной раз просто замечаю нытье про Яндекс и seo в целом.

Пользователя не обманешь. Если сайт не ГС - то дойдет юзер до нормальных сайтов. Если пользователю достаточно ГС - то зачем такой пользователь?

2,23% https://s.mail.ru/EcHq/mbvJwJZkS

а с чем связан вопрос? у вас были резкие изменения?

igor3310:
А если вместо старых страниц - отдает 404 ощибку - тоже чет долго не вылетают такие

если запрета в роботсе нету, то тут просто надо натравить робота на такие страницы. Если статус 404, то в индексе такая страница может быть только с датой кэша более ранней, чем приобретение статуса 404.

проблема такая может быть, когда одномоментно убирают внутренние ссылки на такие страницы 404 (что логично, борьба с битыми), убирают из карты сайта (что тоже логично), закрывают в роботсе. В этом случае робот может долго не посещать такие страницы - соответственно они долго болтаются в индексе со старым кэшем. Поэтому выход такой: не закрывать в роботсе, а так же либо какое-то время не убирать внутренние ссылки на такие, либо держать в отдельной карте сайте. В Гугл.вебмастере кстати очень удобно отслеживать как в этом сайтмапе улетают странички из индекса.

sebadoh:
al-m, /tag/


Есть вообще смысл в такой ситуации пользоваться сервисом "Удалить URL-адреса"?

советую создать отдельный сайтмап с такими страничками, добавить через яндекс.вебмастер и скормить этот сайтмап Яндексу. Ну вроде как так. И скормить эту карту через Гугл.вебмастер. Яндекс обычно выплевывает через неделю, если есть все запреты. Гугл может дольше. Для Гугла важно не закрывать в роботсе! Для Гугла этот запрет будет означать вообще не заходить на эти страницы, а это значит что не увидит в коде noindex,follow. Поэтому в Гугле долго вылетают зачастую по этой причине.

Я в подобных случаях, когда модератору может показаться что-то неоднозначное (например, производство в области) делаю так:

На странице контактов, о компании и прочих, где есть намек на МО - убираю всё это временно. Жду переиндексации и отправлю заявку на регион Москва 213. Прокатывает, потом возвращаю все реалии - с регионом Москва проблем после возвращения нету.

В вашем случае попробовать снова можно, предварительно сделав вышеописанное. Так же можно с другого аккаунта попробовать)) ну это для особо верующих))

artweber:
В Яндекс.Метрике выберите Стандартные отчеты - Источники - Поисковые запросы. И сделайте сортировку запросов по отказам. Картина должна проясниться.

запросов скорей всего тонны и наверху будут микроНЧ с кол-вом переходов 1-2 за период. Отказные визиты начинаются и заканчиваются на одной и той же странице - странице входа. Поэтому гораздо эффективнее глянуть страницы входа. И посмотреть какие страницы "набрали" лишних отказов с сентября)и уже выявив такие страницы - можно дальше копать по запросам на эти страницы, откуда на них приходят и т.д. И смотреть что с этими страницами не так (может стали долго грузиться, может верстка поехала и т.д.)

Всего: 428