Нет, для того, чтобы ожидать результат надо чётко представлять как и за счёт чего формируется позитивный результат.
Надо представлять как формируется трафик, что такое поисковая видимость, что такое запросный индекс, как работать с семантикой, какие факторы влияют на улучшение поисковой видимости, как преодолевается текущая конкурентность и какие бустеры роста в поисковом трафике существуют.
Просто как-то сделать сайт из 20 страниц и ожидать, что он будет давать трафик довольно наивно и в целом нерезультативно.
Разбираться в том, как и что вы сделали. Для начала показать сайт, чтобы можно было по текущей конкретике вам что-то подсказать.
Просто ждать и ничего не делать точно не стоит.
В основе должен быть реализуемый план работ. В плане работ должны быть отражены шаги - что вы сделали (какие задачи решали) и что намереваетесь сделать.
По фактическому плану работы тоже можно как-то вас сориентировать. По общим словам сориентировать нельзя, пока складывается впечатлением, что вы только в самом начале пути и вам предстоит многое освоить, чтобы добиться каких-то позитивных результатов.
Базовый вопросы индексации должны изначально решаться на уровне структуры сайта.
Как вы выводите навигацию в частом случае - не имеет никакого значения, главное, что по структуре рабочего древа должна генерироваться XML карта сайта, а для отдельных целевых страниц должна быть перелинковка c прямыми ссылками - отсюда ПС и получат необходимые данные для индексации.
Это Росстат сообщил?
Опишите пожалуйста их логику, чтобы было понятно, как можно применить ваш совет с демонстрацией такого результативного скриншота.
Если на сайт прут боты с поддельными реферами, то как остальной набор правил поможет отфильтровать данный тафик?
Напишите правило или опишите принцип по которому вы блокируете-фильтруете спам переходы, в которых реферальный сайт подделывается. (В метрике такой трафик в переходы по ссылкам попадает).
Можете привести конкретные рабочие примеры, чтобы их можно было спроецировать на другие рабочие случаи?
TC не сообщал о каких-либо проблемах с работой сервера и общую работу сайта он вроде бы тоже не жаловался.
В своём стартовом сообщении он привёл лишь подозрительные обращения по адресам, которых раньше не было.
Всё это конечно занимательно, но под эффективной атакой как правило понимают достижение результирующей полезности: размещение ссылок, вымогательство денег, конкурентные деструктивные действия, личная месть.
Тратить ресурсы на то, что в результате скорее всего приведет к таким простым рекомендациями, которые выше изложены - затея довольно напрасная.
Судя по скриншоту статистики Яндекс ходит, поэтому и фиксирует последовательно эти переходы.
Тут даже образно несправедливое замечание.
Сайт может быть сделан вебмастером/программистом под ключ и передан в использование заказчику, который конечно не контролирует свой движок, но разобраться с тем как решить вопрос на уровне запрета в robots и выполнить настройку в Вебмастере он может.
Зря или и не зря Яндекс заведомо не знает. Если во внешнем окружении появляются ссылки - он по ним идёт.
Cо своей стороны вы просто снижаете скорость обхода и в robots-е запрещаете обходить те разделы, которые не существуют и по ним вы видите множественную активность.
Если всё так как говорит GuruSite24 то Яндекс получает эти ссылки с внешних ссылок и по ним уже приходит на ваш сайт.
Но в этом случае вы просто снижаете скорость обхода
Т.е. весь сыр-бор только для того, чтобы вынудить вебмастера зайти в Вебмастер и снизить скорость обхода поискового робота?