Думаю, что к этим 10 надо относится не как основному объёму, а лишь к части того условно "паразитного" трафика, который есть на вашем сайте.
Почему так, потому что 5 от 10 - это 50%, а строить на этой цифре логику, что добрая половина ботов чего-то там кликает, полагаю, неправильно.
Далее, то, что там кто-то кликает, не факт, что это всё относится к поведенческим ботам, это могут быть и спамеры и даже тестеры, которые для каких-то сугубо внутренних задач могут тестировать различные действия.
Уже говорил и повторюсь - у ботоводов цель не клики по целям, у ботоводов (в отношении другим сайтов) - история посещений (куки собранные в результате обхода тематических сайтов и сервисов Яндекса). Клики могут быть актуальны, когда есть рабочий пул информационных сайтов и среди них бот выполняет клик по контекстной рекламе Яндекса - вот такие задачи у ботовом действительно есть (хотя тоже не всегда и не обязательно).
Поэтому вариаций кто кликает и зачем - может быть множество. В том числе это могут быть реальные пользовательские клики.
Ботовод анализирует качество сделанных рабочих сессий и стадию прогрева профиля перед непосредственно целевым использованием.
Клики по формам коммерческих сайтов (при прогреве - это важно) - не его задача.
Вы должны понимать, что обработку каждой формы на отдельном сайте нужно программно обрабатывать - т.е. писать логику - вычислить форму, применить действие, обработать исход этого действия в вариантах true/false. Это доп. нагрузка, а ботовода в первую очередь интересует себестоимость подготовки профиля и чем дешевле она будет - тем лучше, потому что это обстоятельно и определяет конечную стоимость услуги для целевого потребителя.
Проще говоря, если можно прогреть профиль без доп. кликов, будут прогревать именно так и кликать там имеет смысл по сервисам Яндекса, а не по отдельным формам стороннего коммерческого сайта.
Если у вас, условно говоря, информационник, то здесь - да, боты целевым образом могут приходить и кликать по рекламе Яндекса. Т.е. фактически способствовать склику. Такая механика точно есть.
Очень странно, что не нашли. Пожалуйста, читайте.
В частности,
Не повредит ли это? Насколько высок риск размытия семантики сайта? Все-таки, сейчас тема узкая, а в планах расширение на другие отрасли права.
С другой стороны, глобально тематика сайта не поменяется - право и юриспруденция. У кого-нибудь был опыт? Какие будут мнения?
Мнение следующее. Если в названии домена и в общей концепции сайта заявлено семейное право, то данной концепции и надо придерживаться.
Если же это сайт фирмы, которая раньше специализировалась на семейном праве, а потом вы решили расширить горизонт своей профессиональной деятельности (и в домене не указано "семейное право"), то вполне можете дополнять.
Только встаёт вопрос как структурно модернизировать сайт с учётом дополнительных направлений - вот этим придётся озадачиться.
В общем и в среднем всё зависит от реализации. Если вы структурно решаете вопрос, то вы структурно расширяетесь. Eсли же у вас был просто общий рубрикатор, где были в основном материалы по семейному праву, а теперь вы решили расшириться, то в общую кучу единого кластера всё сваливать не надо.
Структурное проектирование/модернизация сайта - базовая рекомендация, чтобы не размыть семантику.
Размытие происходит там где всё бессистемно навалено, когда же в структуре сайта есть логика, размытия не будет, потому как дополняющие темы смежные по вашей профессии.
В Метрике в настройке атрибуции: Поведение -> Просмотр -> Просмотр URL.
можно как-то посмотреть посещаемость этой части сайта, но не именно этой страницы, а и всего остального, начиная от mybestsoft.
В параметрах атрибуции поддерживаются маски и регулярки.
Вам достаточно указать маску "*" в конце адреса, если адреса интересующих вас страниц начинаются с mybestsoft
Т.е. 100 раз повторили один и тот же запрос в анкоре внутренних ссылок?
Несколько вопросов:
Может помочь, а можно получить обратный эффект за переспам ключа в анкоре при перелинковке.
По факту изменений в динамике ранжирования.
Проще говоря, позиции значимо поменялись по данному ключу - эффект есть.
Ну вы же на это рассчитываете.
Только учите, что при переспаме вы может сначала получить временный позитивный эффект, а потом когда сформируется полный перелинковочный анкор лист, могут быть наложены санкции.
Линковать надо поступательно и максимально вариативно.
Одномоментное появление 100 анкоров - это SEO признак и так лучше не делать.
Если конечно у вас не идёт речь о сотнях тысячах материалов и ежедневно появляются сотни различных ссылок.
Почитайте обзоры слитых факторов Яндекса, там есть явно указание, что Яндекс анализирует множества даже внутри данных которые касаются сигналов по внутренним ссылкам.
Гугл сравнительно медленнее индексирует и учитывает. Не всегда (потому как зависит от обстоятельств), но в большинстве случаев.
Закрыты.
Объявляли о закрытии турбо страниц, вы пропустили.
Пожалуйста.
Базово запросный индекс формируется везде одинаково.
Но буст по широте показов и CTR из поиска работает заметно медленней. Что касается фактора CTR из поиска так на порядки медленней, поэтому "накрутка" так популярна именно в Яндексе.
Базовая есть всегда, остальное - сильно индивидуально.
Да, коды ответов из базы используемых URL-ов отслеживаются.
Это сильно индивидуально. Обычно нагул выполняет без целевых конверсий, но могут и кликать + отправлять по формам какой-нибудь сгенерированный мусор в виде типовых ответов. Как правило, нагульщика интересует не результат отправки, а готовность прогретого профиля для целевого использования.
Т.е. если вы надеетесь, что новая качпа отпугнет нагульщиков - не отпугнет. Нагульщики - это не классические спамеры, их результат сабмита по формам не интересует. Однако фактически снизить объёма мусора отправленного по вашим формам безусловно сможет.
Значит это уже плюс.
Запросный индекс - это и есть совокупность запросов образующих общую структурную иерархию запросов всего сайта.
Как только сайт обретает релевантность по набору запросов и получает поисковую видимость, начинает формироваться запросный индекс, который вы видите в Яндекс.Вебмастере (в разделе статистика запросов).
Всё правильно. Логика следующая. Благодаря текстовой релевантности и части стато-динамических факторов сайт начинает получать показы по набору тех запросов, где конкуренция не такая сильная. Фактические показы - это уже динамический фактор. Если конкуренция ослабевает - сайт может увеличивать видимость, если конкуренция увеличивается - сайт по запросам может терять актуальную видимость и запросный индекс "сужается".
Объём видимости по запросному индексу - тоже значимый фактор, именно поэтому для крупных сайтов имеет смысл работать не в узкой задаче, а по фронту.
Выше видимость - выше потенциальная возможность, что сайт по выбранному запросу получит клик с серпа, а это уже новый фактор - CTR запроса (куда более мощный).
Поэтому если вы выписали семантику по красным кактусам, но конкуренция там сравнительно выше, то ваш запросный индекс уже по показателю показов ниже, а если вы рабочий объём времени и сил разделили на красные кактусы и на зеленые, - а по зеленым конкуренция ниже, то при прочих равных ваши показы начинаются с показов микро НЧ и НЧ запросов в сегменте зеленых кактусов - и это ситуация получается более выгрышной, нежели первый случай.
Вот так себя проявляет запросный индекс.
В сущности, накрутка CTR запросов точно также работает по иерархии запросного индекса.
Сначала накручиваются НЧ запросы (и они подтягивают в рабочую видимость СЧ и ВЧ запросы), а потом общий пул накрутки разбавляется СЧ и ВЧ запросами, когда они появляются в рабочей кликабельной зоне TOP10.
Поэтому запросный индекс работает не только по показам, но по кликам.
Запросный индекс - это не что-то такое само по себе вещественное, это статистическая общность, которая образуется после того, как веб документы сайта начинают ранжироваться и фиксироваться в зоне видимости.
Можно сказать, что запросный индекс - это та часть вашей семантики, которая попала в показы. Следовательно, задача SEO специалиста всю рабочую семантику перевести в рабочий запросный индекс и получить базовые показы, чтобы потом рабочие позиции тянуть в топ.
Влияет то, что благодаря своей стратегии вы можете начать с освоения менее конкурентных информационных сегментов.
В этом случае и объём, и динамика показов вашего запросного индекса будет выше.
Соот-но, можно влезть в гиперконкурентную тематику, до посинения писать статьи, не получать никаких показов по запросному индексу и мучаться вопросом, почему статьи написаны, а продвижения нет.
Удачной стратегией будет анализ конкурентности в каждом информационном сегменте и усилия, которые приведут к динамике показов ваших рабочих запросов в запросном индексе.
Пожалуйста, ответил.