Пакетное сравнение текстов на сходство

12 3
WU
На сайте с 07.10.2007
Offline
173
5164

Представляю сервис для пакетной оценки текстов на сходство между собой. Программа работает на основе шинглов. Это нужно для оценки работы рерайтеров. Можно приобрести тут себе данную программу без ограничений (но без нормализации) за $10.

WU
На сайте с 07.10.2007
Offline
173
#1

Добавил еще один показатель сходства текстов на основе расстояния Левенштейна - попарное сравнение и пакетное сравнение

WU
На сайте с 07.10.2007
Offline
173
#2

вышла новая версия 3.1.0

Новое:

1. Теперь вместо сходства используется уникальность

2.Теперь после сравнения статей между собой на уникальность, для каждой статьи расчитывается среднее значение уникальности. Затем эти статьи выводятся в порядке убывания уникальности. (количество вывода и критический порог уникальности можно регулировать).

Это можно использовать для отбора наиболее уникальных статей из массы

Приглашаю потестировать новый подход. Жду Ваших замечаний

S2
На сайте с 07.01.2008
Offline
611
#3

Тут продставлены 2-е программы для сравнения текстов. Чем ваша программа лучше их?

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
PoMka
На сайте с 22.07.2007
Offline
55
#4

да фигню написал...удалил

WebSeizeTool (http://webseizetool.com) - Инструмент для работы с cPanel, ISPmanager, Plesk - через один интерфейс!
WU
На сайте с 07.10.2007
Offline
173
#5
Str256:
Тут продставлены 2-е программы для сравнения текстов. Чем ваша программа лучше их?

Есть отличии:

1. Сравниваются сразу множество текстов

2. Используется нормализация.

3. Используется расстояние Левенштейна

4. Программа позволяет выбрать самые уникальные статьи из массы текстов

5. Нет рекламы у платной версии

У меня есть сервис и для попарного сравнения

СС
На сайте с 13.02.2008
Offline
3
#6
WSGU:
Есть отличии:
1. Сравниваются сразу множество текстов

Это очень здорово, таких прог еще не было, будем тестить, я сравниваю и размещаю тысячами, сравнение двух текстов между собой мне вообще никогда не было нужно.

Размещение статей навсегда - 300 СДЛ (/ru/forum/205160). Seolink.ru (http://www.seolink.ru/) - Биржа Статей, раздача vip-аккаунтов до конца марта!
PoMka
На сайте с 22.07.2007
Offline
55
#7
WSGU:
Представляю сервис для пакетной оценки текстов на сходство между собой. Программа работает на основе шинглов. Это нужно для оценки работы рерайтеров. Можно приобрести тут себе данную программу без ограничений (но без нормализации) за $10.

а что такое нормализация? И есть ли декстопный вариант или скрипт, который собирает сам статьи и {end} ставит то?

WU
На сайте с 07.10.2007
Offline
173
#8

Нормализация - это нахождение начальной формы слова. По поводу "собирает сам статьи" - уточните, пожайлуста. расставить {end} автоматом можно макросом в ворде например, или чем вы там статьи генератором статей

Light Phantom
На сайте с 17.03.2007
Offline
188
#9
WSGU:
Можно приобрести тут себе данную программу без ограничений (но без нормализации) за $10.

1. На сайте цена стоит 25 wmz, а не 10. Какому ценнику верить? Хотелось бы первому :)

2. Можно подробнее про нормализацию?

3. Правильно ли я понимаю принцип работы программы?

Имеем, например, 3 статьи (1, 2 и 3). Загружаем в скрипт и он сравнивает статью1 со статьей2, статью1 со статьей3, статью2 со статьей 3 и выбирает среди них наиболее разные? Соответственно, если статей будет 1000, то таким же образом он будет сравнивать всю 1000? На сколько долгий этот процесс?

update: WSGU, если можно, свяжитесь со мной через icq: 216618

WU
На сайте с 07.10.2007
Offline
173
#10

1. 25

2. Например домами -> дом, идем-> идти

3. Все оказалось проблематичнее. Чтобы выявить из группы текстов самые уникальные надо сравнить каждую статью относительно другой. Если 3 статьи, то определяем схожесть второй и третей относительно первой; 1 и 3 относительно второй; 1 и 2 относительно третьей. Потом нужно для каждой статьи найти средний показатель уникальности. Сейчас тестирую скорость и оптимизирую алгоритмы. Результаты скоро сообщу. Хотелось бы услышать сколько времени бы (по максимуму) согласны уделять, чтобы выбрать из 1000 например 10 самых уникальных статей?

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий