sysboss

tw: sysboss
Рейтинг
62
Регистрация
10.11.2012
Должность
Контекстная реклама на уровне Мастер и SEO на уровне 2х лет опыта
Интересы
Всё в inete +женщины)))
22 года в медйных СМИ и рекламе

Ну что тут сказать? Легко! Вот как корректно кластеризовать 50-100 тысяч запросов, это уже интереснее.

А две тысячи)) Разово, сервисами, постоянно по 2, ассортом.

Отправлено с моего SM-T719 через Tapatalk

А если еще помечтать, то здорово бы видеть динамику сайта по кол-ву запросов. Особенно в виде отчета куда например можно было загрузить 10 урлов из выдачи и посмотреть их в рамках одного графика по динамике на исторических данных :)

Теперь понял))) Ок, сегодня пришлю в личку ФБ, заодно и фидбэк по формату выгрузки дам ))

Да нет по своему все понятно. При анализе ТОПа или конкурента по узким темам бывает нужда посмотреть популярные страницы и ключи по разделам например. Ахревс дорого и по регионам не особо помогает поскольку интересен яндекс. А так можно было бы и подождать минут несколько ))) Мгновенно получить не так важно как вообще получить данные!)) Прогонять тематические ключи в КК можно, но подозреваю что даже не оптимизированная база даст результат в минуты, а не часы как в КК)))

Очень, очень, очень не хватает возможности увидеть ключи конкурента по полному url, а не по всему домену ((( Вот прям очень надо иногда!

RJ7Q5DLQGW4EIBH8SK11OR1T0G5FA4 - забрал

Bukvarix:
regta, непосредственно в сервисе (и программе) нет возможности убрать нечеткие дубликаты, только с помощью дополнительных скриптов/программ, как уже посоветовали (спасибо!) LEOnidUKG и one.

Собственно вставлю свои 5 копеек) Нечеткие дубли в разных регионах, разные! Для Москвы одни употребляют часто и надо оставлять их, для Перми уже другие и будет правильно их пробивать по своему региону особенно в ся для контекста. В любом случае частотность в сервисе снимается без региона привязки и для коммерческих сайтов её 100% надо переснимать локально.

Отправлено с моего G3212 через Tapatalk

LazyBadger:
1. Вы хорошо делаете хорошее дело, да еще и даром. Так что мой совет (не более чем...) - тоже хороший и даром: не используйте в таком контексте слово-паразит "функционал" (и более правильную "функциональность" тоже не используйте), в русском русском языке для этого есть "возможности" в приложении к софту/харду, а "функционал" - это или матан или сексопатология
2. К нормализатору очевидным дополнением и (пост|пред) фильтром просится лемматизатор (как минимум для получения дублей из того, что глазами можно не заметить на больших/огромных ядрах - лучше это вычищать сразу, чем постфактум в коллекторе)

С дублями не все так очевидно и в некоторых ситуациях они нужны, даже те что с простой перестановкой слов и в одной словоформе. Если и делать такой пост фильтр то отключаемым! А вот префильтр для списка исходных фраз в яблочко!) Только почти все лемматизаторы коверкают отдельные слова(( Сочи в сочить и т.п.

Отправлено с моего G3212 через Tapatalk

Скорее дополнение. Обрабатывать большие массивы ключей в чистом экселе сложно, а на выборах более миллиона ключей и вовсе невозможно

Отправлено с моего G3212 через Tapatalk

Bukvarix:
Тема семантического структурирования данных, конечно, очень интересна, но чревата тем, что, углубившсь, можно "зависнуть" на годы. Разбить на тематики такую большую базу как наша (около 2 млрд. ключевых слов) - это сложная задача, к которой мы пока не готовы.

И не думайте о таком! Сейчас школота понапишет хотелок! [emoji23] А вот serp базу и пакетную загрузку базисов в онлайн версии... Это очень ждём!)

Отправлено с моего G3212 через Tapatalk

12
Всего: 15