Не повредит ли это? Насколько высок риск размытия семантики сайта? Все-таки, сейчас тема узкая, а в планах расширение на другие отрасли права.
С другой стороны, глобально тематика сайта не поменяется - право и юриспруденция. У кого-нибудь был опыт? Какие будут мнения?
Мнение следующее. Если в названии домена и в общей концепции сайта заявлено семейное право, то данной концепции и надо придерживаться.
Если же это сайт фирмы, которая раньше специализировалась на семейном праве, а потом вы решили расширить горизонт своей профессиональной деятельности (и в домене не указано "семейное право"), то вполне можете дополнять.
Только встаёт вопрос как структурно модернизировать сайт с учётом дополнительных направлений - вот этим придётся озадачиться.
В общем и в среднем всё зависит от реализации. Если вы структурно решаете вопрос, то вы структурно расширяетесь. Eсли же у вас был просто общий рубрикатор, где были в основном материалы по семейному праву, а теперь вы решили расшириться, то в общую кучу единого кластера всё сваливать не надо.
Структурное проектирование/модернизация сайта - базовая рекомендация, чтобы не размыть семантику.
Размытие происходит там где всё бессистемно навалено, когда же в структуре сайта есть логика, размытия не будет, потому как дополняющие темы смежные по вашей профессии.
В Метрике в настройке атрибуции: Поведение -> Просмотр -> Просмотр URL.
можно как-то посмотреть посещаемость этой части сайта, но не именно этой страницы, а и всего остального, начиная от mybestsoft.
В параметрах атрибуции поддерживаются маски и регулярки.
Вам достаточно указать маску "*" в конце адреса, если адреса интересующих вас страниц начинаются с mybestsoft
Т.е. 100 раз повторили один и тот же запрос в анкоре внутренних ссылок?
Несколько вопросов:
Может помочь, а можно получить обратный эффект за переспам ключа в анкоре при перелинковке.
По факту изменений в динамике ранжирования.
Проще говоря, позиции значимо поменялись по данному ключу - эффект есть.
Ну вы же на это рассчитываете.
Только учите, что при переспаме вы может сначала получить временный позитивный эффект, а потом когда сформируется полный перелинковочный анкор лист, могут быть наложены санкции.
Линковать надо поступательно и максимально вариативно.
Одномоментное появление 100 анкоров - это SEO признак и так лучше не делать.
Если конечно у вас не идёт речь о сотнях тысячах материалов и ежедневно появляются сотни различных ссылок.
Почитайте обзоры слитых факторов Яндекса, там есть явно указание, что Яндекс анализирует множества даже внутри данных которые касаются сигналов по внутренним ссылкам.
Гугл сравнительно медленнее индексирует и учитывает. Не всегда (потому как зависит от обстоятельств), но в большинстве случаев.
Закрыты.
Объявляли о закрытии турбо страниц, вы пропустили.
Пожалуйста.
Базово запросный индекс формируется везде одинаково.
Но буст по широте показов и CTR из поиска работает заметно медленней. Что касается фактора CTR из поиска так на порядки медленней, поэтому "накрутка" так популярна именно в Яндексе.
Базовая есть всегда, остальное - сильно индивидуально.
Да, коды ответов из базы используемых URL-ов отслеживаются.
Это сильно индивидуально. Обычно нагул выполняет без целевых конверсий, но могут и кликать + отправлять по формам какой-нибудь сгенерированный мусор в виде типовых ответов. Как правило, нагульщика интересует не результат отправки, а готовность прогретого профиля для целевого использования.
Т.е. если вы надеетесь, что новая качпа отпугнет нагульщиков - не отпугнет. Нагульщики - это не классические спамеры, их результат сабмита по формам не интересует. Однако фактически снизить объёма мусора отправленного по вашим формам безусловно сможет.
Значит это уже плюс.
Запросный индекс - это и есть совокупность запросов образующих общую структурную иерархию запросов всего сайта.
Как только сайт обретает релевантность по набору запросов и получает поисковую видимость, начинает формироваться запросный индекс, который вы видите в Яндекс.Вебмастере (в разделе статистика запросов).
Всё правильно. Логика следующая. Благодаря текстовой релевантности и части стато-динамических факторов сайт начинает получать показы по набору тех запросов, где конкуренция не такая сильная. Фактические показы - это уже динамический фактор. Если конкуренция ослабевает - сайт может увеличивать видимость, если конкуренция увеличивается - сайт по запросам может терять актуальную видимость и запросный индекс "сужается".
Объём видимости по запросному индексу - тоже значимый фактор, именно поэтому для крупных сайтов имеет смысл работать не в узкой задаче, а по фронту.
Выше видимость - выше потенциальная возможность, что сайт по выбранному запросу получит клик с серпа, а это уже новый фактор - CTR запроса (куда более мощный).
Поэтому если вы выписали семантику по красным кактусам, но конкуренция там сравнительно выше, то ваш запросный индекс уже по показателю показов ниже, а если вы рабочий объём времени и сил разделили на красные кактусы и на зеленые, - а по зеленым конкуренция ниже, то при прочих равных ваши показы начинаются с показов микро НЧ и НЧ запросов в сегменте зеленых кактусов - и это ситуация получается более выгрышной, нежели первый случай.
Вот так себя проявляет запросный индекс.
В сущности, накрутка CTR запросов точно также работает по иерархии запросного индекса.
Сначала накручиваются НЧ запросы (и они подтягивают в рабочую видимость СЧ и ВЧ запросы), а потом общий пул накрутки разбавляется СЧ и ВЧ запросами, когда они появляются в рабочей кликабельной зоне TOP10.
Поэтому запросный индекс работает не только по показам, но по кликам.
Запросный индекс - это не что-то такое само по себе вещественное, это статистическая общность, которая образуется после того, как веб документы сайта начинают ранжироваться и фиксироваться в зоне видимости.
Можно сказать, что запросный индекс - это та часть вашей семантики, которая попала в показы. Следовательно, задача SEO специалиста всю рабочую семантику перевести в рабочий запросный индекс и получить базовые показы, чтобы потом рабочие позиции тянуть в топ.
Влияет то, что благодаря своей стратегии вы можете начать с освоения менее конкурентных информационных сегментов.
В этом случае и объём, и динамика показов вашего запросного индекса будет выше.
Соот-но, можно влезть в гиперконкурентную тематику, до посинения писать статьи, не получать никаких показов по запросному индексу и мучаться вопросом, почему статьи написаны, а продвижения нет.
Удачной стратегией будет анализ конкурентности в каждом информационном сегменте и усилия, которые приведут к динамике показов ваших рабочих запросов в запросном индексе.
Пожалуйста, ответил.
Допустим.
Предположим.
Вот я хочу продвинуть в топ-1 Яндекса и Гугла самые жирные статьи под самые жирные ключи в каждом разделе.
В раздел «Красные кактусы» я уже выписал 30 статей, а в раздел «Зелёные кактусы» выписал 150 статей.
Здесь сразу замечание. Многие зависит от структуры сайта.
Если у вас структура:
site.ru/красные_кактусы/
site.ru/красные_кактусы/cтатья01
site.ru/красные_кактусы/cтатья02
..
site.ru/красные_кактусы/cтатья30
и
site.ru/зелёные_кактусы/
site.ru/зелёные_кактусы/статья01
site.ru/зелёные_кактусы/статья02
site.ru/зелёные_кактусы/статья150
Тогда - да, каждый раздел образует кластер и объём структуры кластера будет зависеть от кол-ва дочерних элементов - статей.
Если же у вас структура просто линейная структура
site.ru/зелёные_кактусы
site.ru/красные_кактусы
site.ru/статья01
...
site.ru/статья100500+
То у вас в общей массе просто самостоятельные страницы и объем содержания одной группы статей не будет превалировать над другим.
ПС воспринимает все адреса как общий массив страниц.
Значит смотрите.
Результат ранжирования зависит не только сегментированный полноты запросного индекса, результат ранжирования будет зависеть от целого ряда признаков: динамических факторов, пользовательского отклика, поведенческих и, как ни странно, текущей конкуренции.
В общем виде. Чем полнее и больше вы описываете семантический сегмент, тем потенциально ценность ваших материалов для ПС выше. Опять-таки, почему - чем больше пользовательских сигналов вы собираете по низкочастотному хвосту, тем быстрее и полнее вы продвигаетесь по более вч ключу.
Условно говоря, если вы выписываете семантику:
уход за зелёными кактусами
разведение зелёных кактусов
то совокупность поведенческих по этим запросам будет помогать вам в продвижении запроса "зелёные кактусы".
Из этого можно сделать вывод, что важно не только физически написать необходимый объём, важно ещё прокачать весь семантический сегмент документов и тогда вы заметите как позитивная динамика поисковой видимости более общих запросов приобретает заметную тенденцию к росту.
Данная логика от частного к общему и определяет работу по запросному индексу.
Чуть ранее я в этой теме видел как вы цитировали видео Алексея Чекушина. Это хороший специалист. Он не просто SEO-шник сам по себе, но и автор сервиса Just-magic, где реализован довольно уникальный инструмент Акварель, работающий с анализом текста и тематической классификацией.
К его мыслям и инструментам я рекомендую прислушиваться и присматриваться.
Итого:
1) Расширять семантический кластер важно. Важна и его полнота, и фактическая полезность текстов.
2) Продвижение более общих запросов начнётся не по факту индексации некоего объёма текста внутри кластера, а в зависимости от того, насколько эти материалы будут востребованы.
Посему рабочая схема это, условно: тексты + on-page оптимизация + поведенческие (а для этого нужен либо трафик сам по себе, либо умелая его имитация).
Здесь начну с конца.
На мой взгляд, если биржевые ссылку требуется усилить ссылками с прогонами с Xrumer-а, то в такие арендные ссылки вкладывать не нужно.
Если речь про постоянные ссылки, я в своё время усиливал ссылками с Главным страниц служебных доменов, коих у меня было несколько и это хорошо помогало.
Раз уж вы купили Xrumer, то конечно не использовать инструмент было бы глупо. В этом смысле мой совет - не работать с заспамленными донорами, ибо ничего хорошего от таких ссылок не будет.
Я посмотрю, но не обещаю, что обязуюсь предоставить развёрнутый ответ по вашему вопросу :)