zaxavar

zaxavar
Рейтинг
183
Регистрация
08.10.2012
Виктор Петров #:

Удалить. Проще и полезнее.
Работа с семантикой строится по совсем другим алгоритмам.
Собираем для начала маркерные запросы и их синонимы на базе хоть тех же конкурентов, за основу беря не левые эти ваши сервисы типа keya.so или там какого-нито spywords.ru. Там половина - лютый бред, и к продвижению отношения не имеет никакого.
После этого собираем "хвосты" к маркерным запросам. Потом - стату по ним хоть из Директа с Вордстатом.
Потом кластеризуем и оцениваем, чего в структуре явно не хватает, а что стоит выкинуть.
Потом - приоритизируем, отфильтровываем мусор, застойные и теряющие актуальность ключики, нулёвки, накрученное и т.п. Но главное - отбираем самые актуальные и перспективные, по которым можно получить позиции в самой короткой перспективе.
А дальше - мониторим, добавляем-убираем, пасём рынок и конкурентов, и это уже процесс бесконечный.
Что вы будете делать с этим полумиллионом ключей, с учётом того, что там под 90% - мусор, дубли, нулёвки, ключи без шансов? Это только сильно усложнит работу оптимизатору. Да и вообще по идее СЯ нормальный оптимизатор собирает сам, пользоваться чужим - зашквар. Всё равно его надо перепроверять и пересобирать.

Там софтовые сайты. Тысячи программ. Подборок и коллекций. Категорий сотни.
Очень много хвостов и версий. Это 500К реальных запросов, просто многие НЧ.
Я не представляю, как это все вручную вычитывать, кластеризовать, отфильтровывать и т.д.

Vladimir SEO #:
Будет мусора много, зачем вам такое? Нагенерят всякого лишнего

Ну а как тогда собирать?
Допустим я слил из букварикса 500К запросов по 10 конкурентам.
Что дальше?

Хорошо, а страницы пагинации стоит закрывать в robots?

Disallow: *&start=*

Титлы то у них одинаковые.

То есть не обращать внимание на такие ссылки?

А если тексты потырили? Какие действия?

YmersY #:
пусть ругается, не волнуйтесь, этот параметр не на что не влияет, зачем вы туда в принципе смотрите? Нечем заняться больше?

Ну в консоли навалил мне кучу ошибок. Да и пол интернета, особенно бурж кричат во весь голос, что Core Web Vitals - это важная метрика теперь.

alaev #:
Собсно, откуда у вас траф, если позиции в топ 50? Из поиска люди на такие сайты не доходят

У меня много ключей в ТОП50.
Но есть ключи и ТОП1 - 10 и много. Они и дают траф.
Задача подогнать в ТОП10 ключи из ТОП50.
Я и спрашиваю, если просто получать ссылки на морду, прокачивая DR - это поможет?

Delahoya #:
50 позиции это равносильно тому, что позиций нет
Я понимаю.

Бывает что и топ100 нет.

Но они вообще хоть какие-то есть. С этим же можно работать? Не безнадежно?

alaev #:
Нашли вы инструмент для анализа трафика.

Поднимите позиции до топ 20 и к вам пойдут боты, будет вам щасте :)


Я трафик у конкурентов смотрел приблизительно через similar web

Свой смотрю через метрику и аналитику.

Я показал про охват ключей через keys.so и ссылочный профиль обоих сайтов через ahrefs.

На вопрос то никто нет ответил. Ссылочный профиль может давать такой эффект?

Антоний Казанский #:

Понятно. Тогда в этому случае конечно надо решать вопрос с исходной причиной, а не со следствием.

Нарушать переобход бота внутри родительского уровня вообще не самая лучшая идея. 

С кодом разберемся, но нужно время на это. Около недели.

А сайт уже запущен. Это как временная мера, разумеется.

Антоний Казанский #:

Вы можете решить эту задачу и классическим способом. В справке Яндекса как раз этот случай описан.

Насколько я понимаю, вы хотите временно закрыть индексацию для страницы категории и в этом случае я бы предложил вам закрыть индексацию через noindex в meta теге, сохранив возможность переобхода этой страницы.

И да, судя по указанному вопросу - родительские категории 301-ым редиректом нужно держать "закрывать" слэшем (/) 

Проблема в другом. Из-за бага в коде, когда на странице

site/catalog/item1

пользователь переключает язык сайта, скрипт не отправляет его на страницу

site/en/catalog/item1

а отправляет на страницу

site/catalog

А такой страницы не существует, отдается 404.

Всего: 531