- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Слышал про попытки создать программу, которая будет парсить тематический контент с других сайтов и уникализировать его (путем перестановки местами кусков текста например). Насколько реально вообще сделать на практике такой уникализатор текста? и насколько это трудоемкая задача? кто-то сталкивался на практике?
Слышал про попытки создать программу, которая будет парсить тематический контент с других сайтов и уникализировать его (путем перестановки местами кусков текста например). Насколько реально вообще сделать на практике такой уникализатор текста? и насколько это трудоемкая задача? кто-то сталкивался на практике?
На какой практике, когда даже обычные синонимайзеры выдают такой бред, что его читать невозможно? Да и с чего Вы взяли, что если поменять местами куски текста, то он вдруг сразу станет уникальным?!
я вот тоже много чего слышал , про снежного человека например
Насколько реально вообще сделать на практике такой уникализатор текста? и насколько это трудоемкая задача? кто-то сталкивался на практике?
Лет 10 назад было более-менее актуально. Сейчас можете забыть: сайт улетит под фильтры сразу, как только эти тексты будут проиндексированы. Ну или поживет пару недель на радость вам и все равно улетит.
Насколько реально вообще сделать на практике такой уникализатор текста? и насколько это трудоемкая задача? кто-то сталкивался на практике?
Спрашивайте-ка более конкретно. Из чего будет состоять ваша задача, с чем именно нужно ещё столкнуться на практике.
Тут пол форума такую практику имеют.
КД парсит и на лету синонимизирует, читать невозможно, но страницы в индексе)) Перестановка не уникализирует текст, алгоритмы распарсивает текст слова и выкидывает предлоги.
Почитайте http://habrahabr.ru/company/yandex/blog/224579/
Трудоемкая задача. Если всерьез решите делать - приготовьте сумму с 4-мя нулями.
Все, что я видел из реализованного, на практике было:
https://developers.google.com/translate/
http://api.yandex.com/translate/
И очень легкий синонимайз. Что-то типа такого. В эту сторону и смотрите :)
Задача получения читаемого и (что самое главное) не паливного синонимизированно текста - трудная. Работал в 2010-11 годах в отделе, разрабатывавшем похожую систему с учётом морфологии и правил построения предложений в русской речи.
В результате 4-х месяцев разработки мы пришли к выводу, что более рационально генерировать контент по огромной тематической базе текстов с применением усовершенствованного алгоритма цепей Маркова, нежели тупо синонимизировать готовый контент. Результаты проверки такого контента с шинглом в 8-10 (как у ПС) намного выше, чем у синонимайза.
Тут продают подобный софт, помоему называется Зеброид.
Вот он может парсить и уникализировать контент.
Сам не пробовал, но вроде отзывы неплохие.