- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Представляю сервис для пакетной оценки текстов на сходство между собой. Программа работает на основе шинглов. Это нужно для оценки работы рерайтеров. Можно приобрести тут себе данную программу без ограничений (но без нормализации) за $10.
Добавил еще один показатель сходства текстов на основе расстояния Левенштейна - попарное сравнение и пакетное сравнение
вышла новая версия 3.1.0
Новое:
1. Теперь вместо сходства используется уникальность
2.Теперь после сравнения статей между собой на уникальность, для каждой статьи расчитывается среднее значение уникальности. Затем эти статьи выводятся в порядке убывания уникальности. (количество вывода и критический порог уникальности можно регулировать).
Это можно использовать для отбора наиболее уникальных статей из массы
Приглашаю потестировать новый подход. Жду Ваших замечаний
Тут продставлены 2-е программы для сравнения текстов. Чем ваша программа лучше их?
да фигню написал...удалил
Тут продставлены 2-е программы для сравнения текстов. Чем ваша программа лучше их?
Есть отличии:
1. Сравниваются сразу множество текстов
2. Используется нормализация.
3. Используется расстояние Левенштейна
4. Программа позволяет выбрать самые уникальные статьи из массы текстов
5. Нет рекламы у платной версии
У меня есть сервис и для попарного сравнения
Есть отличии:
1. Сравниваются сразу множество текстов
Это очень здорово, таких прог еще не было, будем тестить, я сравниваю и размещаю тысячами, сравнение двух текстов между собой мне вообще никогда не было нужно.
Представляю сервис для пакетной оценки текстов на сходство между собой. Программа работает на основе шинглов. Это нужно для оценки работы рерайтеров. Можно приобрести тут себе данную программу без ограничений (но без нормализации) за $10.
а что такое нормализация? И есть ли декстопный вариант или скрипт, который собирает сам статьи и {end} ставит то?
Нормализация - это нахождение начальной формы слова. По поводу "собирает сам статьи" - уточните, пожайлуста. расставить {end} автоматом можно макросом в ворде например, или чем вы там статьи генератором статей
Можно приобрести тут себе данную программу без ограничений (но без нормализации) за $10.
1. На сайте цена стоит 25 wmz, а не 10. Какому ценнику верить? Хотелось бы первому :)
2. Можно подробнее про нормализацию?
3. Правильно ли я понимаю принцип работы программы?
Имеем, например, 3 статьи (1, 2 и 3). Загружаем в скрипт и он сравнивает статью1 со статьей2, статью1 со статьей3, статью2 со статьей 3 и выбирает среди них наиболее разные? Соответственно, если статей будет 1000, то таким же образом он будет сравнивать всю 1000? На сколько долгий этот процесс?
update: WSGU, если можно, свяжитесь со мной через icq: 216618
1. 25
2. Например домами -> дом, идем-> идти
3. Все оказалось проблематичнее. Чтобы выявить из группы текстов самые уникальные надо сравнить каждую статью относительно другой. Если 3 статьи, то определяем схожесть второй и третей относительно первой; 1 и 3 относительно второй; 1 и 2 относительно третьей. Потом нужно для каждой статьи найти средний показатель уникальности. Сейчас тестирую скорость и оптимизирую алгоритмы. Результаты скоро сообщу. Хотелось бы услышать сколько времени бы (по максимуму) согласны уделять, чтобы выбрать из 1000 например 10 самых уникальных статей?