Небольшой опрос. Идеальный дорген/генератор сайтов/лендингов etc

AESCBC192
На сайте с 11.06.2016
Offline
51
#471
Financia:
как успехи?

Осваиваю libfann (либа по нейронкам), по результатам отпишу.

exarh
На сайте с 28.03.2010
Offline
503
#472

Все посоны, зря вы ТС забижали!

Он свою разработку яндексу продал ((

https://yandex.ru/blog/company/algoritm-palekh-kak-neyronnye-seti-pomogayut-poisku-yandeksa

Монетизируй (https://publishers.propellerads.com/#/pub/auth/signUp?ref_id=tnE) свой сайт с выгодой
[Удален]
#473
exarh:
Все посоны, зря вы ТС забижали!
Он свою разработку яндексу продал ((
https://yandex.ru/blog/company/algoritm-palekh-kak-neyronnye-seti-pomogayut-poisku-yandeksa

Я спросил у осени

Где моя любимая

Осень мне ответила

Проливным дождем

Я спросил у тополя

Где моя любимая

Тополь забросал меня

Осеннею листвой

Я спросил у Яндекса

Где моя любимая

Яндекс не ответил мне

Качая головой..😂

AESCBC192
На сайте с 11.06.2016
Offline
51
#474
Семантический вектор

Искусственные нейронные сети — один из методов машинного обучения, который стал особенно популярен

Нда действительно похоже, у меня это правда называется немного по-другому: семантическая кластеризация, полтора мес назад запустил алгоритм, позволяет собрать читаемый реферат на основе разрозненной информации из тысяч источников. Подобные алгоритмы работают на основе принципов нечеткой логики, операции над оъектами, описываемыми множествами, при программной обработке множество записывается в виде вектора, веер векторов образует кластер, отсюда название алго. Тот же принцип позволяет исключить из входных данных источники, несущие некачественный контент, что позволет добиться необходимого качества и релевантности результирующего контента.

[Удален]
#475
AESCBC192:
Нда действительно похоже, у меня это правда называется немного по-другому: семантическая кластеризация, полтора мес назад запустил алгоритм, позволяет собрать читаемый реферат на основе разрозненной информации из тысяч источников. Подобные алгоритмы работают на основе принципов нечеткой логики, операции над оъектами, описываемыми множествами, при программной обработке множество записывается в виде вектора, веер векторов образует кластер, отсюда название алго.

Твою бы энергию, да в мирных целях. Скрипт, которым собирается читаемый реферат + базы к нему, в архиве занимает 300 кб. места.

Работает все на основе четкой логики, не грузит сервер и лезет в индекс со страшной силой.🤪

Более того - можно нагенерить тексты в стиле Пушкина, Набокова, Шолохова - любого автора.

Могу выдать текстовку в стиле Вл. Сорокина или Хулио Кортасара..🤪 А детективы пишет - зачитаешься..🤪

bolyk
На сайте с 16.02.2006
Offline
175
#476
vastmanager:
Твою бы энергию, да в мирных целях. Скрипт, которым собирается читаемый реферат + базы к нему, в архиве занимает 300 кб. места.
Работает все на основе четкой логики, не грузит сервер и лезет в индекс со страшной силой.🤪
Более того - можно нагенерить тексты в стиле Пушкина, Набокова, Шолохова - любого автора.
Могу выдать текстовку в стиле Вл. Сорокина или Хулио Кортасара..🤪 А детективы пишет - зачитаешься..🤪

Тексты в стиле Пушкина? Ну вы умеете приукрасить получение случайной строки из файла😂

Thunder v3. Дорген (http://ifirestarter.ru/product/10) | MassSiteProxy. Скрипт клонирования сайтов (http://ifirestarter.ru/product/12) | CPAgen CPA дорген (http://ifirestarter.ru/product/14) | (http://fast-index.ru/article)
AESCBC192
На сайте с 11.06.2016
Offline
51
#477

Суть в том что пройти фильтр на нейронке может только алго на более крутой нейронке.

AESCBC192
На сайте с 11.06.2016
Offline
51
#478

vastmanager, может хватит оптимизировать мой топик под всякий иррелевантный бред? я понимаю разговор о технологиях генерации контента но это уже явный перебор.

tapakah2001
На сайте с 25.05.2002
Offline
140
#479
bolyk:
Тексты в стиле Пушкина?

При должной настройке, смогет и не такое! :)

Сущность доров раскрыта! (/ru/forum/comment/14853337)
bolyk
На сайте с 16.02.2006
Offline
175
#480
AESCBC192:
Суть в том что пройти фильтр на нейронке может только алго на более крутой нейронке.

Расскажите про нейронку детальнее. Как строите цепочку слово->слово->слово? Это действительно интересно.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий