- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В БД имеется 200 эрорасказов как лучше всего организовать перемешивание текста?
1. Брать 1 рассказ, менять местами предложения?
2. Брать 1 рассказ, менять местами слова?
3. Брать несколько рассказов и вставлять по очереди по предложению из каждого?
4. Брать несколько рассказов и вставлять по очереди по слову из каждого?
5. Нах вся эта возня лучше прогнать синонимайзером?
6. Нах вся эта возня лучше надергать снипетов ?
7. Ваш вариант
Мой вариант - собрать это все в кучу, разбить на слова - проанализировать слова которые идут после этих слов. все это запихнуть в масив и на этом сгенерить 10000000 уникальных текстов!
вы проверяли насколько это будет съедобно для пски ? как анализируете следующее слово или цепочку ?
ИМХО будущее за генерацией текста, а не за перемешиванием
если перемешивать по словам то очень размыта грань между перемешиванием и генерацией, а набор исходных текстов упрощает задачу по генерации текста на определенную тему ..
Так работают Цепи Маркова. =)
Расширить "текстовым расширителем" (если не много - могу прогнать) + по верху пройтись самым простым синонимайзером. На выходе - абсолютно читаемый текст + довольно уникальный.
Расширить "текстовым расширителем" (если не много - могу прогнать) + по верху пройтись самым простым синонимайзером. На выходе - абсолютно читаемый текст + довольно уникальный.
а можно поподробней про "расширитель" ? он самодельный ?
если перемешивать по словам то очень размыта грань между перемешиванием и генерацией, а набор исходных текстов упрощает задачу по генерации текста на определенную тему ..
А если, допустим, генерация по словарю, слова в котором заранее напарсины с тематических страниц
Собственно навеяно вот этим http://www.jeka911.com/articles/about_all/85000/ - тут обсуждалось /ru/forum/235648
не вижу большой разницы: словарь слова в котором заранее напарсины с тематических страниц или же база с этими самыми тематическими страницами ..
зыж: самое неприятное что узнать насколько успешен вышел получившийся текст можно только через неделю-две :(
А вы обращали внимание как всякие системы по типу антиплагиата показывают процентное соответствие текстов? Думаю поисковики работают по похожим алгоритмам. Может стоит попробовать перед тем как писать софт вручную испробовать эти варианты на примере нескольких предложений?
И ИМХО генерация предложений по словарю уменьшает вероятность того, что текст будет не уникальным, т.к. допустим слова берутся рандомно из словаря, а когда перемешиваются предложения и слова в них они всеравно находятся ближе друг к другу
вы проверяли насколько это будет съедобно для пски ? как анализируете следующее слово или цепочку ?
Проверял - давольно сьедобно для ПС.
Следующее слово выбираю рэндомом.