В регионах довольно много сайтов делают и продвигаются на Тилде.
Сложности с Тильдой определены не каким-то ограничением в продвижении (такого ограничения нет), а проблемами сопровождения и последующего развития.
Dmitriy_2014 :Я что-то бывает забываю, что я раньше публиковал на сайте, и вот интересно, как поисковые системы наказывают
...
за несколько статей на одну и туже тематику
Откуда вы черпаете такие гипотезы? 😎
Естественно ПС не наказывают сайт за публикации материалов на одну тему.
Вы наверное хорошо понимаете в этой теме.
Скажите пожалуйста, после какого количества вскоробившихся пузырьков вода приобретает тот самый истинный вкус и аромат?
А лучше отключить данное уведомление.
SEO плагин скорее всего ругается на кол-во меньшее, чем указано в его настройках.
Настройка по сути бестолковая, потому что ценность материала (статьи) определяется не кол-вом слов, а качеством содержания.
Опять-таки статьи разные бывают. Какой-то текст и не будет являться статьей вообще.
Оценивать общий конкурентный уровень и конъюнктурные требования в целом рекомендация самая правильная. Когда вы разберетесь с этим вопросом, то первоначальный отпадёт.
Плюсую.
Качественная кластеризация всё равно доводится руками (если вы конечно с этой кластеризацией планируется работать, а не на продажу).
Несмотря на то, что у Кейсо (по объёму функционала) сейчас аналогов практически нет, кластеризация там довольно посредственная.
Впрочем, все автоматические кластеризаторы делают её делают "удовлетворительно" с большой натяжкой.
Уверен, LLM сделает её просто по смыслу, поточно под каждый запрос LLM парсить выдачу не будет, поэтому затея через ИИ такая себе.
На мой взгляд, в кластеризации сейчас самый функциональный инструмент KeyAssort. Разработчики продолжают развиваться программу и по возможностям он уже далеко впереди KeyCollector-а (в вопросе кластеризации). Хотя KC всей душой люблю, поэтому результат кластеризации KeyAssort-ом потом импортирую в KС.
В чистом виде, чтобы вам удаляли только негативные отзывы - нет конечно.
Негативные отзывы - часть потребительского фитбэка. Для объективности картины они и не должны удаляться.
Шторм для Яндекса в порядке нормы.
Такое может происходить не только вследствие шторма.
Здесь надо проверять, всё ли в порядке с оптимизацией, изучать накопленные ПФ, динамику спроса и т.д.
Нет, не слежу. Выше правильно было сказано - это не имеет большого смысла для рабочей аналитики.
Когда совсем что-то из ряда вон можно заглянуть - нет ли каких аномалий в виде долгой задержки индексации, но в целом на примере параллельных рабочих сайтов в ситуации можно разобраться.
Как второстепенный инструмент - да, иногда можно смотреть, но в целом, что касается индексации и учёта текстовой составляющей я не помню каких-то значимых задержек. Чаще проблемы внутри сайта и результате скачков ПФ.
Да, я понял.
Всё-таки я думаю важно использовать то, решение, которое будет предусматривать всё возможные негативные случаи.
Вы не встречались со случаями когда в Вебмастере появляются адреса вида ../*?=несуществующие_адреса ?
Даже на форуме обсуждались эти темы и на моей памяти раза три. Иногда их даже намеренно генерируют, чтобы спровоцировать дубли и тем самым навредить индексу сайта через дублирование.
Так что насчёт полного решения я бы оспорил.
Этот вес как правило "ошибочный". Если мы говорим о каких-то рабочих случаях, когда этот передаваемый вес важен, то в данном случае SEO специалист должен связаться с администратором донорского сайта и попросить исправить ссылку (когда это возможно).
Это скорее как следствие неправильно установленной ссылки.
Живой пользователь и не должен попадать на сайт по ошибочным адресам (это я к тому, что по легитимным источникам такие адреса надо исправлять).
C точки зрения аналитики это просто ошибочный адрес, но формально я с вами согласен.
Но вы забыли про meta robots который одинаково корректно работает и в Яндексе, и в Гугле.