Удалить. Проще и полезнее.Работа с семантикой строится по совсем другим алгоритмам.Собираем для начала маркерные запросы и их синонимы на базе хоть тех же конкурентов, за основу беря не левые эти ваши сервисы типа keya.so или там какого-нито spywords.ru. Там половина - лютый бред, и к продвижению отношения не имеет никакого.После этого собираем "хвосты" к маркерным запросам. Потом - стату по ним хоть из Директа с Вордстатом.Потом кластеризуем и оцениваем, чего в структуре явно не хватает, а что стоит выкинуть.Потом - приоритизируем, отфильтровываем мусор, застойные и теряющие актуальность ключики, нулёвки, накрученное и т.п. Но главное - отбираем самые актуальные и перспективные, по которым можно получить позиции в самой короткой перспективе.А дальше - мониторим, добавляем-убираем, пасём рынок и конкурентов, и это уже процесс бесконечный.Что вы будете делать с этим полумиллионом ключей, с учётом того, что там под 90% - мусор, дубли, нулёвки, ключи без шансов? Это только сильно усложнит работу оптимизатору. Да и вообще по идее СЯ нормальный оптимизатор собирает сам, пользоваться чужим - зашквар. Всё равно его надо перепроверять и пересобирать.
Там софтовые сайты. Тысячи программ. Подборок и коллекций. Категорий сотни.Очень много хвостов и версий. Это 500К реальных запросов, просто многие НЧ.Я не представляю, как это все вручную вычитывать, кластеризовать, отфильтровывать и т.д.
Ну а как тогда собирать?Допустим я слил из букварикса 500К запросов по 10 конкурентам.Что дальше?
Хорошо, а страницы пагинации стоит закрывать в robots?
Disallow: *&start=*
Титлы то у них одинаковые.
То есть не обращать внимание на такие ссылки?
А если тексты потырили? Какие действия?
Ну в консоли навалил мне кучу ошибок. Да и пол интернета, особенно бурж кричат во весь голос, что Core Web Vitals - это важная метрика теперь.
У меня много ключей в ТОП50.Но есть ключи и ТОП1 - 10 и много. Они и дают траф.Задача подогнать в ТОП10 ключи из ТОП50.Я и спрашиваю, если просто получать ссылки на морду, прокачивая DR - это поможет?
Бывает что и топ100 нет.
Но они вообще хоть какие-то есть. С этим же можно работать? Не безнадежно?
Я трафик у конкурентов смотрел приблизительно через similar web
Свой смотрю через метрику и аналитику.
Я показал про охват ключей через keys.so и ссылочный профиль обоих сайтов через ahrefs.
На вопрос то никто нет ответил. Ссылочный профиль может давать такой эффект?
Понятно. Тогда в этому случае конечно надо решать вопрос с исходной причиной, а не со следствием.
Нарушать переобход бота внутри родительского уровня вообще не самая лучшая идея.
С кодом разберемся, но нужно время на это. Около недели.
А сайт уже запущен. Это как временная мера, разумеется.
Вы можете решить эту задачу и классическим способом. В справке Яндекса как раз этот случай описан.
Насколько я понимаю, вы хотите временно закрыть индексацию для страницы категории и в этом случае я бы предложил вам закрыть индексацию через noindex в meta теге, сохранив возможность переобхода этой страницы.
И да, судя по указанному вопросу - родительские категории 301-ым редиректом нужно держать "закрывать" слэшем (/)
Проблема в другом. Из-за бага в коде, когда на странице
site/catalog/item1
пользователь переключает язык сайта, скрипт не отправляет его на страницу
site/en/catalog/item1
а отправляет на страницу
site/catalog
А такой страницы не существует, отдается 404.