Тогда, прости, я не понимаю, как сверх всего этого ты перевариваешь 100K ядра. Это нереально.
К сожалению, вряд ли получится. Только-только утрясли заботы связанные с перерасходом лимитов от особо затейливых старателей.
Я сам за то, что платить больше и уменьшить кол-во, но организатор не я.
Я прошу прощения, что как-то так рассказал про возможности, а взять к себе не могу, потому что организатор складчины не я и я сам ждал места 2 месяца.
Но дают ориентир, что такие варианты возможны, если нацеленно искать и ждать.
Ой, а я нет. Ну 2-3 часа на семантику не больше. Дальше я начинаю выгорать.
Мне больше по душе аналитика, точки роста, гипотезы, внедрения, анализ и аналитика UX/UI, креативы, запросная и продуктовая аналитика, прототипирование, формирование оффера, коллективные брифинги - этой прям драйвит.
А списки запросов лопатить, всё-таки дозированно. Cкажем так, 10K сырых запросов по группам за день раскидаю, больше уже начинает сильно удручать.
Да, концовка красивая 😊
У меня тоже возникают к бизнес модели. Наверняка можно более рационально анализировать семантику.
Первый момент.
Информацию о топах откуда узнаём? Из отчётов исполнителя? Таблички с циферками из Топвизора? Угадал?
Не исключены, что вы живете в иллюзии топов, которых и нет.
Обязательно сделайте следующее:
Берете два десятка самых значимых запросов из разных категорий, которые демонстрируют топы и собственноручно проверяете их видимость (нет, не поиске) - в статистике Я.Вебмастера.
Идёте:
Я.Вебмастер -> Эффективность -> Мониторинг запросов - выкачиваете (статистика теперь доступна за 18 месяцев) и смотрите. Собственными глазками.
Вот вам тейк о сильно неверных позициях и о несоответствии видимого и фактического.
Второй момент. Задача исполнителю по SEO увеличить конверсионность сформулирована? Что в этом направлении делается?
Или накрутчик тупо добавляет пол вашего бюджета на Сеопапу, а остальное забирает себе?
Какие задачи выполняются по улучшению покупательской способность? UX/UI безупречны? Анализ пользовательской активности проведен? Задачи по улучшению лояльности сформированы?
Или от подрядчика только накрутка и на этом как бы всё?
Под "лопатить" я имел ввиду доводить до целевых ядер и их посадочных с последующим внедрением на офферы. Если работать по интенам, то там нет таких колоссальных объёмов. А вот история разношерстную мешанину в тему и не в тему поубить на кластеры - это тут большой вопрос к специализации.
Для дорвеев, где страницы и их бредосодержание генерируется налету - это одна история, раскачка семантики для контентного проекта (где что найдем, о том и напишем) - другая история, для коммерции - там по структуре, по категориям, товарам/услугам и их интентам.
Так дело в том, что в базовом тарифе существенно дороже получается (как минимум раз в шесть).
Заработать хотят. Но у нас на корпоративным 10 плановых пользователей и на каждом плановом пользователей ещё 5 дочерних :)
Ой. Я думал, у тебя какая-то дорвейная история с такими объёмами, а тут по древу. Я обычно по древу семантику и собираю, а потом его достраиваю по необходимости. Поэтому в общей массе запросов может быть десятки тысяч, но в пошаговом исполнении это куда более посильные объёмы.
Сотни тысяч - это конечно чОкнуться можно.
Это потому что ты скорее всего сразу настраивал каноникал и она вываливается из индекса как Неканоническая.
Например,
А вот случаи, когда canonical-а нет и они вылетают по МПК - я тебе покажу при случае, если представится проводить аудит какого-нибудь нового сайта с данным признаком.
Можно и ноутбук заставить летать, его бросить его с высоты; он - таки "полетит" вниз, но лучше использовать предметы, инструменты и рабочие элементы по назначению. Пагинация - это не трафикообразующие страницы.
Всяко бывает. Выше я тебе продемонстрировал пример, где не игнорируется и как раз исключается из индекса в Я.
Но беда в том, что потом снова индексируется и снова исключается, и так по кругу.
Тогда оттуда и тянуть, я не думаю, что где-то значимо будет дешевле.
Можно конечно попытать счастья на кворке (если кто-то подобным специально занимается), но вряд ли, слишком узкоспециализированная задача.
Структурировать там и не надо :)
Если в складчину брать, то соответственно будет дешевле.
Подключили.
А кто ж такой объём запросов лопатить будет?
Это до пенсии :)
Если в таком объёме, то по API с Кейсо самый резонный вариант.
В таких объёмах тянуть через прокси с аккаунтам - изнурительное и слишком трудозатратное дело.
Как вариант арендуйте корпоративный аккаунт, там сейчас хорошие лимиты.
300K запросов на корпоративном. Нередко и они не выбираются.
Кейсо и ещё раз Кейсо. По функционалу и возможностям они круто оторвались от всех конкурентов.
Адекватно. Мы берем корпоратив на 5 человек.
300K запросов в месяца на 5 человек, часть из которых и не добирают свой объём покрывает практически полностью весь объём по семантике, которые я веду по своему перечню клиентов.
Я уже давно не вижу на форуме SEO-шников, которые бы серьёзно занимались запросной аналитикой и работали с большими объёмами.