Я тебя сейчас ещё больше повеселю,
дословно:
--
В разделе «ад» об испытаниях основы рассказывать-то особо и нечего. Ад – это сплошное, почти непрерывное испытание соответствующей основы. Но даже там высокомерие существует: иногда в аду бывают периоды относительного затишья бушующей огненной или ледяной стихии.
и дальше в том же духе..
источник здесь
Ну и для тех кто захочет посмотреть в мудрые глаза настоящего научного исследователя - здесь.
Вот таких вот продвинутых эзотериков выпускает Запорожская государственная инженерная академия.
Преклоните колено.
Исследователь с научным подходом изучает высокие уровни ауры? Не смешите взрослых людей.
Вашей книге место среди прочих
разве что в качестве развлечения..
Паразитный бот трафик есть и в тизерных сетях, и в контекстной рекламе, и в SMM, и в SEO. Да, он вносит информационный шум и снижает общую рабочую эффективность. Выводы относительно полезности каждого из каналов нужно делать не на основе 1-2 дней работы, а как минимум 2-3 недель.
Одним советом здесь не обойдетесь.
По-хорошему, чтобы комплексно оценивать проблемы и рабочие точки роста сайта, нужен доступ в Вебмастер и Метрику сайта.
На вскидку, у вас присутствуют признаки переоптимизации,
Нет необходимости во все поля и заголовки вставлять Нижний Новгород.
C описаниями товаров нужно работать, а не вставлять туда сгенерированные тексты из названий товара.
Словом, ищите SEO специалиста, который будет в комплексе курировать все необходимые вопросы и направления связанные с привлечением органического трафика.
Само по себе в нужной динамике трафик расти не будет, рабочим процессом нужно управлять.
Чтобы был толк нужно пошагово приобретать ссылки и проверять эффект. Если эффекта нет, значит это неверная точка роста ваших SEO мероприятий.
Как проверять, что проверять и когда проверять - тоже нужно иметь чёткое представление. Очевидно, что штучные ссылки на конкурентные ВЧ запросы могут не дать эффекта вообще, равно как и десятки приобретенных ссылок.
Очень может быть, это на усмотрение того, кто им управляет. Возможно именно так им удобнеe.
Свободу творчества и рабочих подходов никто не запрещал.
Наборные пользовательские фильтры, результаты поиска, utm и прочие рекламные метки конечно лучше (и нужно) отсекать на уровне robots-а. Виктор правильно сказал - даже не нужно, чтобы робот по ним ходил и тратил краулинговый бюджет.
Поэтому задача оптимизатора лежит в плоскости инструкций для robots и в использовании meta для целевых страниц.
И не только вам, но и программисту, который может получать ТЗ о запрете индексации множества товаров с разными признаками и выборочным положением на сайте. В robots же придётся вносить целевые адреса коих может быть бесконечно много и это становится весьма ощутимой проблемой.
Всем сразу не угодишь. Если прорабатывать детали для всех - это нужен будет полноценный динамический прототип, времени и сил на который уйдет очень много. Фактически - это полная проектная документация на подготовку уходит не одна неделя, а иногда и месяц.
Как правило на старте строится разветвленное древо и вживую поясняется как что с чем будет соотносится. Далее в зависимости от приритетов и входящих вопросов для наглядности вносятся дополнения, определяются дополнительные интеллект карты.
Потому что фильтры обычно реализуются масками ?param=чего-нибудь.
Соот-но, в robots-e по данному признаку удобно закрывать все подобные перечни, если это нужно.
Однако всё зависит от конкретной задачи. В целом, robots - это про правила переобхода сайта, мета - про регламент отдельного документа.