Если есть внешние обращения по указанные адресам, то в случае привязанной Метрики она будут передавать данные адреса для индексации.
Робот приходит по данным адресам, получает 200-е ответы от сервера и индексирует полученные документы (очевидно это будут дубли). Потом в большинстве случаев как дубли выбрасывает.
Корректный canonical в любом случае лучше выводить в мета информации, но это лишь рекомендация для Яндекса это не является руководствующим решением (Яндекс может занести в индекс страницу и вопреки данным canonical).
В этом случае для подобных адресов (и остальных с get параметрами) выводить:
<meta name="robots" content="follow, noindex" />
и дублируются страницы с адресацией ../*?* не будут индексироваться.
А отдельные get парамеtтры потом описать в robots.txt директивой Clean-param. Тогда Яндекс и не будет ходить по ненужным адресам.
Нередко адреса вида /*?* запрещают в robots.txt, выше вам об этом уже подсказали.
Не надо.
Все рабочие адреса с get параметрами, в частности utm метки, сортировки по признакам внутри сайта, которые используются адресацию с get параметрами должны корректно работать.
Cовершенно верное и уместное замечание.
А вот это систематическое хамство и повторяющиеся провокации от данного пользователя надо жестко пресекать.
Макс, а больше нет такого понятия, как "точность позиции", она теперь всегда персонализирована.
Фактически показатель Вебмастера - это средняя позиция на кол-во показов в день, поэтому и показатель дробный.
Уже несколько раз цитировал пояснение по этому вопросу.
"И это теперь так работает" (с) см. видео по ссылке.
И второе видео в дополнение.
Самый оптимальный вариант с учётом того, что в сети можно найти крякнутую версию.
Если сайт совсем небольшой, то до 500 страниц бесплатно SiteAnalyzer сделает.
Также напомню, что в Я.Вебмастере есть раздел внешних и внутренних ссылок.
Вы сделали аудит или вам сделали аудит?
По теме - в дополнение к сказанному - не буду. А так конечно я не могу не выразить комплимент тому, кто осознанно погружался в вопрос и сделал правильные выводы.
У основной массы даже сложности в том, чтобы правильно прочитать моё имя :(
Олег, все ваши замечания вполне резонны, но пока много эмоций.
Мне представляется наиболее полезным и убедительным запротоколировать работу с Романам Кузьминским и провести пост анализ его участия.
Если и после его включения и помощи аргументировано будет доказано, что попытки оптимизировать вашу кампанию - это бесполезная деятельность и ничего не меняется, тогда будет всё понятно.
Ничего не могу здесь комментировать, я просто напомнил про разговор имевший место быть.
Связаны ли эти события - я не знаю, здесь только TC сможет уточнить.
Я тоже сталкивался и думаю еще будут рабочие эпизоды, когда на сайте появляется паразитный бот трафик в том числе и с указанием домена.
Но я не помню случаев, чтобы это было продолжительно долго (чтобы нацелено кто-то лил отказной трафик с использование чужого домена и названия сайта).
Как мелкая пакость - да, но как целенаправленная стратегия и конкурентны спускали на это бюджеты - сомнительно и зачем? Один сайт упадет (даже если) - другой заменит его место. Это довольно бесполезная затея. Думаю ни один вменяемый бизнес не будет закладывать в рекламный бюджет статью "для скрутки конкурентов". А накрутчику тоже не резон тратить на это бюджеты. Его интерес за использование бюджетов получить деньги, ибо накладные расходы требуют ежемесячных затрат.
Сразу отвечу - я не общаюсь с накрутчиками настольно, чтобы они мне сообщали резонных своих методов. Более того, даже тем, кто заказывают их услуги они многого не раскрывают, мол, ваше дело - рост позиций в Топвизоре наблюдать (на днях как раз об этом был разговор в соседней теме). А то, что это XML выдача люди часто даже не догадываются.
Поэтому из разряда предположений.
Дешевые накрутчики давят на фактор роста CTR кликов из поиска. При этом устойчивые и полезные целевые заходы они реализовать не могут, поэтому им выгоднее занять позицию - "в Метрике наших ботов не видно, но эффект позиций по факту есть". Блокируют они при этом Метрику или не блокируют - я не знаю, я не занимаюсь подобной деятельностью, поэтому уверенно утверждать не берусь.
Конечно это аномально для Яндекса и по прошествии следующих месяцев алгоритмы разбираются, где накрутка быстротопа, а где естественный трафик и эффект накрутки сдувается.
На моей памяти ни один накрутчик не может продемонстрировать результат накрутки слабого сайта более 6-ти месяцев.
p.s. По-моему, мы с вами в личке обсуждали эту тему в июле месяце на волне ваших впечатлений от заказа подобных услуг :)