У меня свеж случай - ведущий менеджер годами нарабатывал базу, обучал младших менеджеров.
Через 5 лет директор так пересмотрел выплаты и проценты за выполнение, что ни собирать базу, ни учить менеджеров было совершенно неблагодарным занятием, з/п и выплаты урезали, мотивации развиваться дальше не было.
В результате человек ушёл к конкурентам с базой, со знанием всех минусов, с пониманием как вести работу с клиентами.
В правовом поле - только конкурировать.
Жаловать на что? На копию элементов сайта? Компоновка, цены и отдельные слова авторским правом не защищены.
Бизнес - это не только имена и контакты клиентов + сайт, у каждого бизнеса есть инфраструктура и активы, если конечно бизнес не примитивный. Не факт, что бывший сотрудник потянет, не факт, что получится, к тому же вторичным является он, а не вы..
Подобные ситуации происходят очень часто и никто от них не застрахован.
Улучшайте свои конкурентные позиции, анализируйте, что можете вы и не может он - активно это позиционируйте.
Работать. Только работать.
Можно начать с покупки казахского прокси.
Мне с тобой нечего обсуждать. Ты даже не понимаешь разницу между быстротопом и быстороботом, путаешь механизм ранжирования с поисковым краулингом. Постоянно вываливаешь нелепые, никому не нужные претензии и пережёвываешь какие-то несостоявшиеся фантазии. Я отвечал по сути предложенного мнения и твоя нездоровая ахинея меня не интересует.
Не надо флудить и разводить пустые склоки. Я в твоих претензиях и наставлениях не нуждаюсь. Командная работа - это норма, где люди работают, а не паразитируют на накрутке.
Смыл в том, чтобы сопровождать сайт, реализовать бизнес задачи, комплексно работать над поисковой видимостью и повышать конверсионность сайта, чем накрутчики не занимались никогда, поэтому объяснять тебе такие вещи бессмысленно и неблагодарно.
1. Я и пишу за себя + ту рабочую практику, которую я наблюдаю.
2. Уметь за два дня не надо, надо понимать, что быстротоп - это фактически "дырка" в алгоритме и окно возможностей, которое практически схлопнулось
3. Работа с естественными поведенческими и "накрутка" - подходы разные.
За неделю при должной подготовке и правильной рабочей инерции можно и низкочастотник продвинуть.
4. Месяцами длится объёмная работа, где работает целая команда, сотни задач и десятки планов по необходимой модернизации сайта. А вот варианты за неделю поставить сайт в топ по всем запросам и приучить собственника, что можно так просто заплатить и ничего не делать с сайтом - уходит в прошлое. И слава богу.
Время рассудит, но тенденции стали очевидны. Год назад, два года назад и ранее, таких тенденций не было.
Как я и говорил подряд несколько лет, Яндекс будет сложнее учитывать ПФ и растягивать рабочие итерации учета поведенческих на месяцы. Сюда будут активно примешиваться доп. сигналы уточняющих коммерческих факторов, поэтому накрутки в том виде в которой они были за считанные часы и дни, я думаю, не будет. И не надо.
Конечно. Как можно 18 лет заниматься работой, связанно с поисковыми запросами и озадачится вопросами их структуризации только через полтора десятка лет - мне не понятно. Но это скорее вопрос риторический :)
я веду разговор ЗА ОДИН проект - с конкретной задачей выходящей за рамки моего понимания о томкак быстро ее решить, или хотя-бы классифицировать то, что есть (по запросам)
для составления ядра
На объёмах свыше 10 тыс. запросов, - да, кластеризатор поможет, но это всё равно будут сотни групп, которые потом всё равно придётся проходить вручную, чтобы внедрять запросы на страницы.
Я не знаю, что у вас за проект и какие рабочие обстоятельства, но лопатить сотни групп вы скорее всего устанете, тем более когда это бессистемно и вы будете мучаться вопросами - какие группы надо будет сохранить, а какие рассортировать и распределить по другим группам - это долгая, изнурительная работа, которую чаще всего просто забрасывают.
На мой взгляд, более целесообразно идти по готовой структуре сайта (когда она есть) и расширять семантику по конкретным бизнес задачам и по содержимому на страницах. А для этого более резонно заниматься сбором конкурентной семантики и прорабатывать её постранично.
я в этом деле с 2006 года ... обычно справляюсь екселем =)
в объемах до 10 тыс. запросов
но тут ... грубо говоря - 150 тыс. запросов
всё в куче - услуги, города, типы услуг виды ...
Ого! И только через 18 лет озадачились кластеризацией? :)
Я к чему пишу. Готовьтесь к тому, что кластеризатор всё равно сделает свою работу кривовато.
По результату всё равно придётся проходиться руками и править черновую сборку.
По истории его поисковой видимости. Также по разнице результатов поисковой видимости в Яндексе и в Гугле.
Иногда в статистике остаются следы в виде низкочастотных брендовых хвостов.
На самом деле, это три разные части, которые рассматривать нужно отдельно.
Накрутка CTR запросов, которые видны в Вебмастере - это одна история, классификация заходов бот/не бот уже в Метрике, и определение ботов самим Яндексом.
Если говорить прямо, Яндекс не умеет отличать автоматизированных ботов и людей. Т.е. условно, если я сейчас накидаю скрипт бота в Зенке или BAS-е, определённым образом его подготовлю, отправлю к вам и укажу под каким IP-шником это был бот, то вы сможете увидеть его как обычный пользовательских заход, с просмотром страницы и манипуляцией мышкой. Поэтому лоб в лоб Яндекс не различает и не понимает.
Яндекс борется с бот накрутками через второстепенные признаки, связанные с историей профиля, с корректностью куки, с легитимностью имитируемых элементов браузера, железа и т.д., но это совсем другая тема.
Предположу, что и результатов не было, так? Ну, вот об этой тенденции я и говорю.
Конечно, хорошо. Вебмастера и бизнес будут вынуждены заниматься развитием, а не имитацией пользовательских кликов.
Опосредованно таким образом происходит борьба и с бот трафиком.
В моём лице завываний нет, я всегда за продуктивные и легальные тенденции развития.