Исследователь с научным подходом изучает высокие уровни ауры? Не смешите взрослых людей.
Вашей книге место среди прочих
разве что в качестве развлечения..
Паразитный бот трафик есть и в тизерных сетях, и в контекстной рекламе, и в SMM, и в SEO. Да, он вносит информационный шум и снижает общую рабочую эффективность. Выводы относительно полезности каждого из каналов нужно делать не на основе 1-2 дней работы, а как минимум 2-3 недель.
Одним советом здесь не обойдетесь.
По-хорошему, чтобы комплексно оценивать проблемы и рабочие точки роста сайта, нужен доступ в Вебмастер и Метрику сайта.
На вскидку, у вас присутствуют признаки переоптимизации,
Нет необходимости во все поля и заголовки вставлять Нижний Новгород.
C описаниями товаров нужно работать, а не вставлять туда сгенерированные тексты из названий товара.
Словом, ищите SEO специалиста, который будет в комплексе курировать все необходимые вопросы и направления связанные с привлечением органического трафика.
Само по себе в нужной динамике трафик расти не будет, рабочим процессом нужно управлять.
Чтобы был толк нужно пошагово приобретать ссылки и проверять эффект. Если эффекта нет, значит это неверная точка роста ваших SEO мероприятий.
Как проверять, что проверять и когда проверять - тоже нужно иметь чёткое представление. Очевидно, что штучные ссылки на конкурентные ВЧ запросы могут не дать эффекта вообще, равно как и десятки приобретенных ссылок.
Очень может быть, это на усмотрение того, кто им управляет. Возможно именно так им удобнеe.
Свободу творчества и рабочих подходов никто не запрещал.
Наборные пользовательские фильтры, результаты поиска, utm и прочие рекламные метки конечно лучше (и нужно) отсекать на уровне robots-а. Виктор правильно сказал - даже не нужно, чтобы робот по ним ходил и тратил краулинговый бюджет.
Поэтому задача оптимизатора лежит в плоскости инструкций для robots и в использовании meta для целевых страниц.
И не только вам, но и программисту, который может получать ТЗ о запрете индексации множества товаров с разными признаками и выборочным положением на сайте. В robots же придётся вносить целевые адреса коих может быть бесконечно много и это становится весьма ощутимой проблемой.
Всем сразу не угодишь. Если прорабатывать детали для всех - это нужен будет полноценный динамический прототип, времени и сил на который уйдет очень много. Фактически - это полная проектная документация на подготовку уходит не одна неделя, а иногда и месяц.
Как правило на старте строится разветвленное древо и вживую поясняется как что с чем будет соотносится. Далее в зависимости от приритетов и входящих вопросов для наглядности вносятся дополнения, определяются дополнительные интеллект карты.
Потому что фильтры обычно реализуются масками ?param=чего-нибудь.
Соот-но, в robots-e по данному признаку удобно закрывать все подобные перечни, если это нужно.
Однако всё зависит от конкретной задачи. В целом, robots - это про правила переобхода сайта, мета - про регламент отдельного документа.
Яндекс.Вебмастер информирует вас о том, в результате каких инструкций страница была запрещена для индексации.
Это всё равно что ехать в месту назначения по параллельным дорогам. Кто-то так, кто-то так.
Будет сильно надо, поисковик всё равно перейдет, как ходит и учитывает nofollow ссылки, как индексирует главную и при явном корневом запрете в robots-е.
Здесь вопрос не в предпочтительности для SEO, вопрос в применительной практике. Групповое назначение noindex в мета тег гораздо удобнее реализовывать через CRM, нежели прописывать сотни, тысячи, а иногда и десятки тысяч адресов в robots которые в определённый момент времени необходимо запретить для индексации, а потом разрешить.
Для крупных интернет магазинов это зачастую актуально. Но это что касается товаров, служебные разделы и адреса необходимо закрывать в robots-е.
И насчёт фильтров - есть фильтры как перечни, а есть целевые посадочные фильтры как рабочий кластер. Поэтому фильтр фильтру рознь.