Прелестный бесплатный сервис.
Сейчас текстовые апы размазаны более равномерно, чем раньше (когда ждали каждые две недели, а иногда и больше).
И апдейт сервисы это тоже демонстрируют.
У себя такого не замечаю. На прошлой неделе менял заголовок, новый заголовок появился в течение нескольких дней.
Для наглядности пошагово пройдемся по датам:
20 сентября - очевидно, пусто.
19 сентября
18 сентября
17 сентября
16 сентября
14 сентября
Если бы апов не было, за указанные даты не было бы результатов.
А вот то, что Вебмастер перестал информировать об изменении - это я тоже заметил. Но, как говорится, чем богаты, тем и рады.
Почему не будет? Были и есть.
Здесь можно посмотреть.
Нет, для того, чтобы ожидать результат надо чётко представлять как и за счёт чего формируется позитивный результат.
Надо представлять как формируется трафик, что такое поисковая видимость, что такое запросный индекс, как работать с семантикой, какие факторы влияют на улучшение поисковой видимости, как преодолевается текущая конкурентность и какие бустеры роста в поисковом трафике существуют.
Просто как-то сделать сайт из 20 страниц и ожидать, что он будет давать трафик довольно наивно и в целом нерезультативно.
Разбираться в том, как и что вы сделали. Для начала показать сайт, чтобы можно было по текущей конкретике вам что-то подсказать.
Просто ждать и ничего не делать точно не стоит.
В основе должен быть реализуемый план работ. В плане работ должны быть отражены шаги - что вы сделали (какие задачи решали) и что намереваетесь сделать.
По фактическому плану работы тоже можно как-то вас сориентировать. По общим словам сориентировать нельзя, пока складывается впечатлением, что вы только в самом начале пути и вам предстоит многое освоить, чтобы добиться каких-то позитивных результатов.
Базовый вопросы индексации должны изначально решаться на уровне структуры сайта.
Как вы выводите навигацию в частом случае - не имеет никакого значения, главное, что по структуре рабочего древа должна генерироваться XML карта сайта, а для отдельных целевых страниц должна быть перелинковка c прямыми ссылками - отсюда ПС и получат необходимые данные для индексации.
Это Росстат сообщил?
Опишите пожалуйста их логику, чтобы было понятно, как можно применить ваш совет с демонстрацией такого результативного скриншота.
Если на сайт прут боты с поддельными реферами, то как остальной набор правил поможет отфильтровать данный тафик?
Напишите правило или опишите принцип по которому вы блокируете-фильтруете спам переходы, в которых реферальный сайт подделывается. (В метрике такой трафик в переходы по ссылкам попадает).
Можете привести конкретные рабочие примеры, чтобы их можно было спроецировать на другие рабочие случаи?
TC не сообщал о каких-либо проблемах с работой сервера и общую работу сайта он вроде бы тоже не жаловался.
В своём стартовом сообщении он привёл лишь подозрительные обращения по адресам, которых раньше не было.
Всё это конечно занимательно, но под эффективной атакой как правило понимают достижение результирующей полезности: размещение ссылок, вымогательство денег, конкурентные деструктивные действия, личная месть.
Тратить ресурсы на то, что в результате скорее всего приведет к таким простым рекомендациями, которые выше изложены - затея довольно напрасная.
Судя по скриншоту статистики Яндекс ходит, поэтому и фиксирует последовательно эти переходы.
Тут даже образно несправедливое замечание.
Сайт может быть сделан вебмастером/программистом под ключ и передан в использование заказчику, который конечно не контролирует свой движок, но разобраться с тем как решить вопрос на уровне запрета в robots и выполнить настройку в Вебмастере он может.