Плюсую.
Качественная кластеризация всё равно доводится руками (если вы конечно с этой кластеризацией планируется работать, а не на продажу).
Несмотря на то, что у Кейсо (по объёму функционала) сейчас аналогов практически нет, кластеризация там довольно посредственная.
Впрочем, все автоматические кластеризаторы делают её делают "удовлетворительно" с большой натяжкой.
Уверен, LLM сделает её просто по смыслу, поточно под каждый запрос LLM парсить выдачу не будет, поэтому затея через ИИ такая себе.
На мой взгляд, в кластеризации сейчас самый функциональный инструмент KeyAssort. Разработчики продолжают развиваться программу и по возможностям он уже далеко впереди KeyCollector-а (в вопросе кластеризации). Хотя KC всей душой люблю, поэтому результат кластеризации KeyAssort-ом потом импортирую в KС.
В чистом виде, чтобы вам удаляли только негативные отзывы - нет конечно.
Негативные отзывы - часть потребительского фитбэка. Для объективности картины они и не должны удаляться.
Шторм для Яндекса в порядке нормы.
Такое может происходить не только вследствие шторма.
Здесь надо проверять, всё ли в порядке с оптимизацией, изучать накопленные ПФ, динамику спроса и т.д.
Нет, не слежу. Выше правильно было сказано - это не имеет большого смысла для рабочей аналитики.
Когда совсем что-то из ряда вон можно заглянуть - нет ли каких аномалий в виде долгой задержки индексации, но в целом на примере параллельных рабочих сайтов в ситуации можно разобраться.
Как второстепенный инструмент - да, иногда можно смотреть, но в целом, что касается индексации и учёта текстовой составляющей я не помню каких-то значимых задержек. Чаще проблемы внутри сайта и результате скачков ПФ.
Да, я понял.
Всё-таки я думаю важно использовать то, решение, которое будет предусматривать всё возможные негативные случаи.
Вы не встречались со случаями когда в Вебмастере появляются адреса вида ../*?=несуществующие_адреса ?
Даже на форуме обсуждались эти темы и на моей памяти раза три. Иногда их даже намеренно генерируют, чтобы спровоцировать дубли и тем самым навредить индексу сайта через дублирование.
Так что насчёт полного решения я бы оспорил.
Этот вес как правило "ошибочный". Если мы говорим о каких-то рабочих случаях, когда этот передаваемый вес важен, то в данном случае SEO специалист должен связаться с администратором донорского сайта и попросить исправить ссылку (когда это возможно).
Это скорее как следствие неправильно установленной ссылки.
Живой пользователь и не должен попадать на сайт по ошибочным адресам (это я к тому, что по легитимным источникам такие адреса надо исправлять).
C точки зрения аналитики это просто ошибочный адрес, но формально я с вами согласен.
Но вы забыли про meta robots который одинаково корректно работает и в Яндексе, и в Гугле.
Нужно учитывать, что для в рекламных кампаний могут использоваться UTM метки, которые и состоят из GET параметров.
Подобные адреса должны работать без осложнений и не пересекаться с правилами редиректов.
Опять же выше резонно указали - случаев когда в адресах может появляться ?=что_угодно_ - может быть бесконечное множество. Вы будете вылавливать эти адреса и составлять новые правила редиректов? Это будет утомительный бесконечный процесс.
Проще и правильнее сообщить ПС не индексировать подобные адреса. И вопрос снимается.
Есть второй сайт мегаппопулярный ресурс. На этом сайте некто Вася размещает ссылку на обсуждаемый сайт и по доброте или умышленно забывает "?" . Получается site1.com/? . По этой ссылке пошел толпами народ.
Метрика ведь заметит эту ссылку?
Да.
Метрика не определяет дубли, дубли фиксируют поисковые анализаторы, а информация по дублям и по обходам поискового робота выводится в Я.Вебмастере.
Если есть внешние обращения по указанные адресам, то в случае привязанной Метрики она будут передавать данные адреса для индексации.
Робот приходит по данным адресам, получает 200-е ответы от сервера и индексирует полученные документы (очевидно это будут дубли). Потом в большинстве случаев как дубли выбрасывает.
Корректный canonical в любом случае лучше выводить в мета информации, но это лишь рекомендация для Яндекса это не является руководствующим решением (Яндекс может занести в индекс страницу и вопреки данным canonical).
В этом случае для подобных адресов (и остальных с get параметрами) выводить:
<meta name="robots" content="follow, noindex" />
и дублируются страницы с адресацией ../*?* не будут индексироваться.
А отдельные get парамеtтры потом описать в robots.txt директивой Clean-param. Тогда Яндекс и не будет ходить по ненужным адресам.
Нередко адреса вида /*?* запрещают в robots.txt, выше вам об этом уже подсказали.
Не надо.
Все рабочие адреса с get параметрами, в частности utm метки, сортировки по признакам внутри сайта, которые используются адресацию с get параметрами должны корректно работать.
Cовершенно верное и уместное замечание.
А вот это систематическое хамство и повторяющиеся провокации от данного пользователя надо жестко пресекать.
Макс, а больше нет такого понятия, как "точность позиции", она теперь всегда персонализирована.
Фактически показатель Вебмастера - это средняя позиция на кол-во показов в день, поэтому и показатель дробный.
Уже несколько раз цитировал пояснение по этому вопросу.
"И это теперь так работает" (с) см. видео по ссылке.
И второе видео в дополнение.