Я своими глазами вижу, что в индекс попадают новые страницы.
Вот 15-го был ап свежедобавленных страниц.
Вы сами себе противоречите - выше вы указывали, что у вас заголовки не обновляются.
Отправка писем не связана с работой индексатора.
Равно как долго время не обновлялся сервис внешних ссылок в Вебмастере. Но не это не значит, ссылки не индексировались и не учитывались.
У вас.
В вашем случае (на начальном этапе) точно нужно, при условии что всё в порядке с "техничкой" и onpage оптимизацией.
C учётом того, что у вас вообще 20 страниц (пока неизвестно чего), то чисто статистически у вас весьма немного возможностей получать трафик.
Ссылочное ранжирование в Яндексе никто не отменял.
А вот в высококонкурентных темах со ссылками в Яндексе действительно напрасная трата денег.
В Яндексе существует необходимое накопление хостовых и поведенческих характеристик. Пока там "около нули", роста поисковой видимости не будет. Кто-то это называет "песочницей", называть это можно как угодно. Важно понимать, как эти задачи решаются. Они не ограничиваются строго временным фактором.
Сроки определяются динамикой развития проекта. Для кого-то несколько месяцев, для кого-то и в течение нескольких лет не будет никаких позитивных изменений.
Обращать внимание на кейсы надо тогда, когда вы чётко понимаете как формируется запросный индекс, как сначала в поисковой видимости появляется низкочастотка и потом (если всё делать правильно) происходит кластерный подъём видимости остальных запросов.
Чтобы понимать реальную картину для начала надо зайти в Вебмастер: Поисковые запросы -> Статистика запросов -> Поисковые запросы.
Далее выбираете рабочий интервал (квартал)
и скриншот рабочих данных (вместе с запросами) пришли в тему.
Будет о чём говорить.
Иначе обсуждение теоретических тезисов довольно бессмысленно занятие.
Cуждение в корне неверное. Надо избегать таких слов как "всегда", "однозначно" и т.д.
У всего есть причинно-следственные связи и покуда вы их детально не понимаете, вы будете цепляться за общие формулировки, которые где-то встретите.
Важно понять суть вещей. Она заключается в том, что если Яндекс пока или вообще не видит ценности в сайте, он не будет высоко ранжировать его в поиске, а значит поискового трафика вы пока или вообще не получите.
Все склоняются к тому, что пока все текущие пользовательские заходы с этого запроса достаются не вам.
Вряд ли.
Прелестный бесплатный сервис.
Сейчас текстовые апы размазаны более равномерно, чем раньше (когда ждали каждые две недели, а иногда и больше).
И апдейт сервисы это тоже демонстрируют.
У себя такого не замечаю. На прошлой неделе менял заголовок, новый заголовок появился в течение нескольких дней.
Для наглядности пошагово пройдемся по датам:
20 сентября - очевидно, пусто.
19 сентября
18 сентября
17 сентября
16 сентября
14 сентября
Если бы апов не было, за указанные даты не было бы результатов.
А вот то, что Вебмастер перестал информировать об изменении - это я тоже заметил. Но, как говорится, чем богаты, тем и рады.
Почему не будет? Были и есть.
Здесь можно посмотреть.
Нет, для того, чтобы ожидать результат надо чётко представлять как и за счёт чего формируется позитивный результат.
Надо представлять как формируется трафик, что такое поисковая видимость, что такое запросный индекс, как работать с семантикой, какие факторы влияют на улучшение поисковой видимости, как преодолевается текущая конкурентность и какие бустеры роста в поисковом трафике существуют.
Просто как-то сделать сайт из 20 страниц и ожидать, что он будет давать трафик довольно наивно и в целом нерезультативно.
Разбираться в том, как и что вы сделали. Для начала показать сайт, чтобы можно было по текущей конкретике вам что-то подсказать.
Просто ждать и ничего не делать точно не стоит.
В основе должен быть реализуемый план работ. В плане работ должны быть отражены шаги - что вы сделали (какие задачи решали) и что намереваетесь сделать.
По фактическому плану работы тоже можно как-то вас сориентировать. По общим словам сориентировать нельзя, пока складывается впечатлением, что вы только в самом начале пути и вам предстоит многое освоить, чтобы добиться каких-то позитивных результатов.
Базовый вопросы индексации должны изначально решаться на уровне структуры сайта.
Как вы выводите навигацию в частом случае - не имеет никакого значения, главное, что по структуре рабочего древа должна генерироваться XML карта сайта, а для отдельных целевых страниц должна быть перелинковка c прямыми ссылками - отсюда ПС и получат необходимые данные для индексации.
Это Росстат сообщил?
Опишите пожалуйста их логику, чтобы было понятно, как можно применить ваш совет с демонстрацией такого результативного скриншота.
Если на сайт прут боты с поддельными реферами, то как остальной набор правил поможет отфильтровать данный тафик?
Напишите правило или опишите принцип по которому вы блокируете-фильтруете спам переходы, в которых реферальный сайт подделывается. (В метрике такой трафик в переходы по ссылкам попадает).
Можете привести конкретные рабочие примеры, чтобы их можно было спроецировать на другие рабочие случаи?