Интервью с Ярославом Шакулой (Kevindark)

VT
На сайте с 27.01.2001
Offline
130
#91
Если такое сделать для Интернета, склеят за дубликат контент Программа работает по принципу того же translation memory алгоритма. Из массива текстов, разбитых на логические части, вытягиваются рандомом эти самые части, и соединяются воедино. Ничего сложного, но это те же тексты, только перемешанные.

Вообще говоря, это не совсем так. Используется операция сегментации, при которой части текста аннотируются и из него извлекаются наиболее важные предложения. При наличии обширной базы об исследуемом предмете из этих сегментов можно собрать вполне приличный и логически связанный дайджест, причем с учетом ретроспективы, плюс посчитать тезаурус - семантическое ядро предметной области.

[Удален]
#92

Vyacheslav Tikhonov, я в более упрощенном виде описал)

VT
На сайте с 27.01.2001
Offline
130
#93
я в более упрощенном виде описал

Да, только это реальность, а не фантастика, как и извлечение знаний из обычного HTML. ;)

Карманный флудер
На сайте с 17.11.2006
Offline
95
#94

Прогоните его в НьюКэп ;)

Тексты заказываю тут (http://text.ru/bestbuy)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий