- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Расскажу как делаю, а вы поправьте.
Например стиральные машины.
1. Сначала скриптом определяю вообще тематику по заранее заданным ключевым словам (в запросе встречается слово >> кидаем этот запрос в нужную тематику). Например:
"Проблемы": включается, работает, течет, не, ошибка.
"коммерция": купить, цена, города
"услуги": ремонт, установка, замена
"выбор": какую, как, выбрать, зачем.
2. И дальше у меня получается, ну достаточно большая выборка слов, которые нужно кластеризировать.
Я ему прям в описании проекта пишу что такое кластеризация, и как это делается, с примерами. Потом еще в чате прошу подтвердить задание.
И если кинуть ему штук 100-150 слов, то вроде все кое-как работает, хотя не идеально.
А вот если кинуть слов побольше, то он не в состоянии обработать такое количество, и начинается полный бред, в том числе, он выкидывает бОльшую часть слов как будто их и не было.
а зачем это если есть кейассорт и остальные ?
можно еще молотком шурупы забивать
а зачем это если есть кейассорт и остальные ?
можно еще молотком шурупы забивать
Потому что КА, КК, ПТ и т.д. не умеют в интент. А кластеризация софт/хард - это помойка.
1. Сначала скриптом определяю вообще тематику по заранее заданным ключевым словам (в запросе встречается слово >> кидаем этот запрос в нужную тематику). Например:
"Проблемы": включается, работает, течет, не, ошибка.
"коммерция": купить, цена, города
"услуги": ремонт, установка, замена
"выбор": какую, как, выбрать, зачем.
Это не ИИ, это скрипт для Питона. Нормально ИИ не умеет ни в каком виде. Но предобработку я круто сделал. Минус в том, что на джемике не запустить, только платные лимиты. Чат обрабатывает куски по 300 запросов.
UPD:
У меня кластеризация идёт 4 (четвёртым) скриптом + огромная база знаний. Но до полного автомата ещё далеко. Но результат, конечно, лучше, чем по СЕРПу.
Это история по типу Захотели так все оптимизировать, что на оптимизированный процесс в 2 раза больше времени теперь уходит. Чат гпт не всесилен и не все задачи способен решать.
Процесс написания заголовков к постам или к видео на Ютуб, а также точечные мета-теги он ускорит. А семантику не, сорян, сам давай собирай)
что на оптимизированный процесс в 2 раза больше времени теперь уходит
Мне - нет. Много раз пыталась. Не получается у него. Я думаю, потому что он не отдельное слово анализирует, а по вероятности подбирает, какое слово следующее. Я пыталась одно время на ключи делать embeddings и потом их сравнивать. Типа чем ближе, тем скорей всего кластер. Но лыжи не поехали. Правда это было примерно год назад и после этого я больше не пробовала. Может быть на новых версиях уже едут.
Это история по типу Захотели так все оптимизировать, что на оптимизированный процесс в 2 раза больше времени теперь уходит.
Присоединяюсь к мнению коллег. В общем, и в целом - нет.
Тут я считаю так, если вы делаете информационник и под него генерируете контент, пытаясь вывести какие угодно запросы, и а бы какой угодной трафик, то на каком-то этапе ИИ может как-то собрать просто потому, что он что-то соберет.
В реальности с большими списками запросов ИИ работает плохо, а когда это проект из сотен кластеров, где на кластер могу быть тысячи и более запросов, то ИИ может выдавать бог знает что.
Коварство ИИ в том, что он может сделать неправильно, не учесть условия/не посчитать часть данных и сделает вид, что всё нормально. Причём, если ты ему укажешь на эту проблему, он пишет - окей, давай пересчитаем.
ИТОГО:
Если вы ответственно и сознательно собираете семантику под коммерцию, то списки запросов всё равно придётся проверять под рабочие интенты и здесь только опыт, и инструменты, которые уже звучали: кластеризаторы, KC, KA, результат которых тоже надо проверять.
Самый продвинутый и функционально удобный инструмент (по моему мнению) сейчас KA (KeyAssort), с учётом того, что он активно поддерживается командой разработки и дополняется.
ИИ не работает с частотами (не предоставляет их), ИИ можно (и нужно использовать) для семантического расширения (синонимов, переформулировок, LSI), но о полноценной кластеризации говорить очень рано.
И если кинуть ему штук 100-150 слов, то вроде все кое-как работает
Верно. На небольших списках он может это сделать, но на проектах из XX тысяч запросов и выше он перестаёт выдавать адекватные результаты.
главное не слушать всяких теоретиков, а делать как делают практики, при помощи простых погнятных проверенных инструментов. Кстати гугл адс хорошо кластеры подсказывает еще на стадии поиска ключей
А когда всякие семантики-маркетинги появляются, где нет - 70%, а да - 30%, у меня случается когнитивный диссонанс
Семантика - это вообще аналитический процесс, где иногда разбивку нужно делать даже лучше, чем то, что сейчас есть в выдаче.
Вот это важный нюанс, потому как состав топа определяет накликанный спрос, а семантика отдельной страницы может планировать под реалии бизнеса.