В смысле? Вот тут можно сделать картинку серпа до/после, типа с ползунком. До советов Алаева и после них. xD
Софтерра, если отбросить кучу флуда, то множество твоего незнания закрывается на второй месяц обучения на адекватных курсах. С примерами. Ну и в книгах ещё быстрее. Прописать мету и нагнать трафика с разных источников - это не SEO. ) Как и поставить пару плагинов. Мне интересно здесь вот что: у тебя нет тем по SEO на форуме и нет какого-то фидбека по SEO. А в чём смысл?
P.S: я там пару простых вопросов уровня джуна задал, хотелось бы таки ответ получить... )
Да не, это к его же отсылки про "объяснит". )
Он с 2023 года специалист, не должен запутаться.
Так все нормальные сайты через лого и менюшки ссылаются на главную автоматически. А в выдачу попадают и другие, релевантные или на которые ссылаются внешние бэки ..
Вопросы для .Guru:
... Позови Алаева, он объяснит. )
В том же PW можно было заморочиться и на основе сторонних данных добавить вес для определённых страниц, отличный от одного. На основе, например, ссылочного профиля.
Кстати, лет N назад на этом форуме приводил пример работы PW, когда переборка внутренней структуры буквально выдавила половину запросов из ТОП-20 в ТОП-10 (а часто и 5) на тестовом сайте.
Релевантность например 🤔
Релевантность - это цифровой показатель. Такой же цифровой, как вес и ещё куча параметров.
***
Человек, который путает ИКС и ТИЦ и ВИЦ феноменален. .GURU, не иначе. )
Имеют прямое отношение. Откройте сливы алгоритмов Яндекса, найдете там информацию про использование весов.
Да он про PR-то вряд ли что знал. )
А что тут обсуждать? Любая толковая линковка будет приносить только пользу сайту. Нужно линковать только с умом, а не на автомате, тогда будет результат, который ты планируешь получить.
Вордстат (в несколько заходов) + keys.so по всем топовым конкурентам (15-20 сайтов).
Частотки мне кейсошной предостаточно, я не яхты продаю, мне плюс минус достаточно понимать, какой кластер пожирнее, какой не особо жирный.
Новые сайты когда запускаю, подключаю ещё свой Webmaster и Метрику.
Кластеризую всё это дерьмо кейассортом, предварительно собрав данные выдачи прямо в нём, там же пересобираю точные частотки (там и по маске и словоформы и всё на свете есть) под кластер в хвост и в гриву при необходимости.
Букварикс не юзаю совсем, слишком много в нём дублей.
Тогда это не это )
Кластер - это связь интентов. SERP даёт лишь базовое понимание, что есть что на основе того, что ранжируется.
По поводу дублей - в КК есть анализ неявных дублей (автомат) + есть сервисы леммитизации запросов, если это важно и нужно.
Сбор семантики по конкурентам - это хорошо, без сомнения. Вот только для крупных сайтов не работает, увы. Точнее, работает, но семантика выйдет в миллион. А забирать ключи с низкой частотой (которые не отдаёт Кейсо) необходимо для LSI и, на выходе, семантичесого охвата.
Ну т.е. я изначально правильно делал, что всю семантику расковырял и под весь кластер каждую страницу затачивал?
Как действовать правильнее в нынешних реалиях, если новые сайты запускать?
как действовать - давно известный факт - на момент создания - выдачу изучить, конкурентов прошерстить, семантику кластеризовать. Иногда, кстати, кластеры плавают очень сильно, иногда берт не работает и работает несколько страниц под кластер, а иногда - как всегда)) через ж
Я часто кластеры делю и оно работает
Тут же вопрос ещё в том, как эти кластеры делать. ) Полуавтом по выдаче? По слову? По интенту? Вообще всё разгребать и соединять? Простой пример, допустим, оборудование для смешивания семян и какой-нибудь Смешсемсуперпупер007 - это почти что 1 интент, точно в одном кластере. А если разных слов на интент куда больше и они перемешиваются между собой? Например, правила тенниса и падел-тенниса, где слова ведут и туда и сюда, а интент абсолютно разный.
А какая глубина сбора семантики? Букварикс со всей историей запроса или кастрированный частотностью Кейсо? Берётся ли семантика с каждой страницы конкурента? По какому уровню схожести. Или кластеры тупо с Вордстата и что они есть, что их нет? )