1. Я и пишу за себя + ту рабочую практику, которую я наблюдаю.
2. Уметь за два дня не надо, надо понимать, что быстротоп - это фактически "дырка" в алгоритме и окно возможностей, которое практически схлопнулось
3. Работа с естественными поведенческими и "накрутка" - подходы разные.
За неделю при должной подготовке и правильной рабочей инерции можно и низкочастотник продвинуть.
4. Месяцами длится объёмная работа, где работает целая команда, сотни задач и десятки планов по необходимой модернизации сайта. А вот варианты за неделю поставить сайт в топ по всем запросам и приучить собственника, что можно так просто заплатить и ничего не делать с сайтом - уходит в прошлое. И слава богу.
Время рассудит, но тенденции стали очевидны. Год назад, два года назад и ранее, таких тенденций не было.
Как я и говорил подряд несколько лет, Яндекс будет сложнее учитывать ПФ и растягивать рабочие итерации учета поведенческих на месяцы. Сюда будут активно примешиваться доп. сигналы уточняющих коммерческих факторов, поэтому накрутки в том виде в которой они были за считанные часы и дни, я думаю, не будет. И не надо.
Конечно. Как можно 18 лет заниматься работой, связанно с поисковыми запросами и озадачится вопросами их структуризации только через полтора десятка лет - мне не понятно. Но это скорее вопрос риторический :)
я веду разговор ЗА ОДИН проект - с конкретной задачей выходящей за рамки моего понимания о томкак быстро ее решить, или хотя-бы классифицировать то, что есть (по запросам)
для составления ядра
На объёмах свыше 10 тыс. запросов, - да, кластеризатор поможет, но это всё равно будут сотни групп, которые потом всё равно придётся проходить вручную, чтобы внедрять запросы на страницы.
Я не знаю, что у вас за проект и какие рабочие обстоятельства, но лопатить сотни групп вы скорее всего устанете, тем более когда это бессистемно и вы будете мучаться вопросами - какие группы надо будет сохранить, а какие рассортировать и распределить по другим группам - это долгая, изнурительная работа, которую чаще всего просто забрасывают.
На мой взгляд, более целесообразно идти по готовой структуре сайта (когда она есть) и расширять семантику по конкретным бизнес задачам и по содержимому на страницах. А для этого более резонно заниматься сбором конкурентной семантики и прорабатывать её постранично.
я в этом деле с 2006 года ... обычно справляюсь екселем =)
в объемах до 10 тыс. запросов
но тут ... грубо говоря - 150 тыс. запросов
всё в куче - услуги, города, типы услуг виды ...
Ого! И только через 18 лет озадачились кластеризацией? :)
Я к чему пишу. Готовьтесь к тому, что кластеризатор всё равно сделает свою работу кривовато.
По результату всё равно придётся проходиться руками и править черновую сборку.
По истории его поисковой видимости. Также по разнице результатов поисковой видимости в Яндексе и в Гугле.
Иногда в статистике остаются следы в виде низкочастотных брендовых хвостов.
На самом деле, это три разные части, которые рассматривать нужно отдельно.
Накрутка CTR запросов, которые видны в Вебмастере - это одна история, классификация заходов бот/не бот уже в Метрике, и определение ботов самим Яндексом.
Если говорить прямо, Яндекс не умеет отличать автоматизированных ботов и людей. Т.е. условно, если я сейчас накидаю скрипт бота в Зенке или BAS-е, определённым образом его подготовлю, отправлю к вам и укажу под каким IP-шником это был бот, то вы сможете увидеть его как обычный пользовательских заход, с просмотром страницы и манипуляцией мышкой. Поэтому лоб в лоб Яндекс не различает и не понимает.
Яндекс борется с бот накрутками через второстепенные признаки, связанные с историей профиля, с корректностью куки, с легитимностью имитируемых элементов браузера, железа и т.д., но это совсем другая тема.
Предположу, что и результатов не было, так? Ну, вот об этой тенденции я и говорю.
Конечно, хорошо. Вебмастера и бизнес будут вынуждены заниматься развитием, а не имитацией пользовательских кликов.
Опосредованно таким образом происходит борьба и с бот трафиком.
В моём лице завываний нет, я всегда за продуктивные и легальные тенденции развития.
Насколько я помню, этот проект уже закрыт.
В целом, здесь я вам уже ответил, добавлю лишь следующее - всё зависит от вашей личной мотивации.
Если это частная задача под конкретный сайт и потом вы к подобным задачам возвращаться не будете - закажите услуги под ключ на стороне (лучше на Кворке, потому что там много исполнителей, которые берутся за отдельные задачи).
Если же вы и в последующем планируете заниматься сбором сем. ядер и их проработкой, то Key Collector + Кейсо + Букварикс (по желанию) - самый оптимальный выбор. Есть и ещё ряд инструментов, которые можно опционально использовать: Мутоген, сервис Арсёнкина, Акварель и другие, но это уже проф. специфика.
Я скачивал с сайта и следуя инструкция оплачивал. Процесс покупки там автоматизирован.
Что касается прямого контакта с тех. поддержкой, то здесь я не могу ничего гарантировать.
Оказия в том, что аналогов всё равно нет, поэтому либо включаешь в это дело, либо остаёшься без рабочего инструмента.
В моём случае без рабочего инструмента оставаться было нельзя.
я вот думаю, или кейколлектор
или кейсо ... что лучше на ваше мнение?
Моё мнение следующее. Key Collector для активно практикующего SEO специалиста - это как говорится, must have.
Как уже говорил - аналогов нет и наверное в ближ. время не появится.
Но! Если вы не выполняете сбор семантики под ключ, не решаете проф. задачи, а делаете это для себя в каком угодно виде и как угодно продолжительно по времени, то в целом собрать семантику и работать с ней вы можете и без KC.
Kейсо - это облачный сервис, к слову - недешевый и там придётся оплачивать тариф. Но в моём случае он тоже необходим, правда по другим причин, но тоже профессиональным.
Я не знаю, всех ваших рабочих обстоятельств, но могу предположить, что в принципе вы бы могли не тратиться на сервисы, а заказать семантику (сборку или кластеризацию) на стороне под ключ. Видите ли, и Key Collector-ом и Кейсо нужно уметь пользоваться и когда вы углубитесь в работу с семантикой, вы поймете, что знаний вам не хватает и будете на каждом шаге испытывать затруднения в том, как решить ту или иную задачу.
Посему, мне кажется, вам лучше отправиться на Кворк, описать подробно свою задачу и отдать её на аутсорсинг, чтобы вам её за недорого выполнили и вы уже получили готовый результат.
Путь покупки инструментов и погружения в них конечно достойный, но стоить будет дороже и потребует от вас гораздо больших эмоциональных и интеллектуальных затрат.
Это слишком глобальный вопрос. Я же не могу отвечать за всю выдачу.
Как SEO специалист по своим проектам я вижу, что начиная с февраля этого года довольно резко (в течением пары месяцев) схлынули молодые сайты, которые откровенно накручивали. Возрастные сайты - остались.
Но это, скажем так, узкий проф. взгляд. Что касается общего качества выдачи и сравнений с Гугл, то тут можно найти самые противоречивые случаи, однако глобально это картину не меняет.
Не совсем так. Яндекс не научился определять ботов. Он по-прежнему не умеет это корректно делать.
Речь о другом - речь об упразднении быстротопа т.е. о быстрых результатах накрутки. Не кардинальном и не всеобщем (т.е. отдельно ещё можно встретить рабочие примеры), однако тенденция к тому определённо есть.
Результат обновления - это фиксация изменений, а TOP10 - это результат ранжирования.
TOP10 уже давно.
Речь о стабильности рабочих изменений.
эта же страница в Вебмастере на переобходе
Далеко не факт. Сайт сайту - рознь, в том числе и старый.
На старых сайтах может быть такой бардак, что "старость" никакая не гарантия учёта любых изменений.
Впрочем, всё решаемо, когда есть возможности и условия для исправления.
Что-то яндекс последние пол года приболел....
Новые сайты плохо индексирует. На старых трастовых сайтах новые страницы в топ100 не попадают (только с новостников типа vc ru попадают).
ПФ роста особо не дает, без ПФ тоже роста особо нет, всё так и висит +- на месте, где-то в топ10, где-то ниже. Яндекс болен.
Это не Яндекс приболел, этот новые реалии и новые условия работы.
Яндекс планомерно и тихо упраздняет быстротоп и накрутчиков. Время оглушительных успехов накрутки заканчивается и это вполне естественное эволюционное движение поисковика. Рабочие интервалы теперь рассчитываются не днями и ближайшими неделями, а месяцами.
Там где работа идет планомерно и упор делается на контент-маркетинг и коммерческие факторы - всё вполне стабильно и без изменении в характере учета.
Теперь от слов к делу.
Давиче прорабатывал товарные карточки. Всё как обычно: расширение семантики, увеличение ключевой плотности, проработка LSI.
Вчера отправил на переобход:
и как результат той же датой обновление
Но это возрастной сайт, где постоянно идет контекстная проработка.
Поэтому то, что Яндекс приболел - подтвердить не могу. Там где стабильно и продолжительно идёт работа, результаты уверенно стабильные.