- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
samimages, сама методика требует серьёзной доработки, тогда что-то можно выжать, но не для указанных целей, а скорее для прогноза попадания в топ, точнее вероятность соответствия проверяемого документа выдаче
это "шестеренка" огромной статистической машины, которая даже в ПС не используется в силу ресурсозатратности.
объём данных можно серьёзно уменьшить, без серьёзной потери точности (проверял только на коммерческих супер вч вк 2-3 словниках)
проблема в том что, после обработки данные невозможно восстановить, т.е. невозможен обратный процесс - что и как необходимо изменить на тестируемом документе, для получения наилучшего результата
timo-71, вы понимаете, что они вас не понимают? просто интересно... Вы, если, хотите разобраться конкретно с LSI, то не обращайте внимание на контент содержащий вместе слова LSI и копирайтинг. Получается разговор слепого с глухим.
Да, копирайтинг в данном контексте точно не рассматриваю. Задача возникла в результате разработки портала/доски/агрегатора/отраслевых новостей. Как задача автоматического определения ключевых фраз для товарного предложения/листинга и обвеса документа различным доп. контентом максимально раскрывающую тему документа.
Например, есть объявление (только в качестве примера). Используя данные (это не все):
+ свои данные. Например, несложно заметить биграммы определены по этому маленькому тексту только 'renault kaptur' и 'челябинский область'. Понятно почему. Но, если применить метод к большой коллекции биграмм будет больше.
Дальше, букварикс/мутаген АПИ и ключевики для объявления подобраны. Потом, на основе lda/lsi топа - дополнительные темы для полного раскрытия темы, на основе которых сделать обвес документа. Изначально идея была такой.
Но, хотелось услышать еще идей-направлений как можно это применить. А тут - задания для копирайтеров :(
* массив биграмм, содержит нормализованные пассажи исследуемого текста.
Кроме того, я вам намекал, что в методе сбора может быть ошибка, т.к. СЕРП не однороден по ранжированию и попытка
Я анализирую, больше всего "странных" слов дает 2гис, вк и т.п. Но, экспертного корпуса построенного на "диссертациях" по теме у меня нет:) Поэтому сделано допущение, что контент 20 (не суть, пробовал разные варианты) первых документов выдачи Я можно рассматривать как экспертный корпус по теме ключевика.
тем не менее, спасибо за конструктивную критику и направления куда еще можно посмотреть:)
Хм, а Акварель-генератор. Документация. не похожее?
Хотя там скорее акцент на копирайтенге.
Хм, а Акварель-генератор. Документация. не похожее?
Хотя там скорее акцент на копирайтенге.
Смысл схож, но неясно какой алгоритм и какой текстовый корпус используется для построения списка.
Судя по
том случае 0.298
не делают
Как задача автоматического определения ключевых фраз для товарного предложения/листинга
попробуйте брать первые 10 наиболее значимых (лем/биграм...) с каждого документа из топа, в принципе должно быть достаточно для определения связанных запросов
попробуйте брать первые 10 наиболее значимых (лем/биграм...) с каждого документа из топа, в принципе должно быть достаточно для определения связанных запросов
В том числе, для определения значимости и заморочился.
Если в лоб, по кол-ву вхождений, то для "renault kaptur купить", на корпусе - контент документов из 20:
Если по одному, то часто вообще непредсказуемо получается, типа как "avto ostavat'sja" несколько первых
* биграммы сортированы, в "kaptur renault" включен "renault kaptur".
Что касается, когда есть запрос и надо расширить, еще используется
анализ ключевиков в качестве данных для окончательной сборки запроса на поиск обвеса.
несложно заметить биграммы определены по этому маленькому тексту только 'renault kaptur' и 'челябинский область'
Яндекс не использует биграммы, а триграммы.
https://www.youtube.com/watch?v=QkUmCnDe3xI&feature=youtu.be&t=1676
вообще полезно посмотреть.
Еще поиграйтесь для ваших запросов с https://serphunt.ru/cabinet/competitors/
Яндекс не использует биграммы, а триграммы.
В ролике буквенные триграммы, а ТС о биграммах слов.
И про словарные биграммы в ролике тоже есть )
Поэтому сделано допущение, что контент 20 (не суть, пробовал разные варианты) первых документов выдачи Я можно рассматривать как экспертный корпус по теме ключевика.
В Яндексе точно нет... там скорее начиная с ТОП 30... ну, ТОП 20, можно искать интенты, а первая 20-ка сглажена до среднего под ПФ, но если рассчитать корпуса самих представителей ТОП-10, например и сопоставить, то может получиться интересно, а если получится сохранить привязку к хосту, то еще и нужно.
Яндекс не использует биграммы
Использует, это прямо следует из слитой в паблик документации, по сути там с биграмм и начинается блок обработчиков, в том числе и на синонимы
Яндекс не использует биграммы, а триграммы.
https://www.youtube.com/watch?v=QkUmCnDe3xI&feature=youtu.be&t=1676
вообще полезно посмотреть.
Еще поиграйтесь для ваших запросов с https://serphunt.ru/cabinet/competitors/
Вообще все н-граммы юзаются до 4
Другой вопрос, что в задаче надо
а тут
а запрос повторю "renault kaptur купить"
Циферка кол - во найденных н-грамм. kaptur_kupit'_renault это все сочетания слов kaptur kupit' и renault