Нейронные сети можно использовать, когда есть входящие и исходящие данные, и зависимость между ними практически невозможно установить. И при этом задача решается достаточно редко, чтоб можно было на её решение потратить достаточное количество вычислительных ресурсов.
Это моё понимание применения нейронных сетей.
Если брать данный конкретный случай с ПС. То тут видна явная зависимость между содержанием сайта(исходный код) и его типом(сдл/сат/дор). И определить эту зависимость и написать алгоритмы достаточно просто, не прибегая к пограничным алгоритмам. Тут как раз задача - упростить алгоритм, чтоб можно было им управлять, изменять его, и чтоб он был достаточно быстрым, что с нейронными сетями невозможно(чёрный ящик)
Вы уверены?
А еще есть кнопочка "Это спам". Которую нажмут несколько сотен человек. И все письма похожие на это письмо перенесутся в спам на данный момент и в будущем. А отправитель отправится в спам-базы.
Нейронные сети - это извращение логической мысли. Это как из простого сделать сложное, и усложнить ещё в несколько раз. Получится нейронная сеть.
Вместо нейронной сети в данном случае можно использовать скажем 1000 конкретно заданных правил с целью классификации сайта. Которые кстати можно будет изменить в любой момент в отличии от нейросети(которая как наобучается, так ничего изменить больше и не получится).
Скорость работы увеличится не в разы, а в миллионы миллиардов раз. А потребление памяти вообще будет незначительным.
Для сравнения:
1. Без нейросети: найти в тексте сайта слово "порно", и если такое есть +1 к подозрению на дорвей
2. С нейросетью: надеятся что в обучаещей выборке достаточно дорвеев с данным словом, надеятся что неизвестные внутренние алгоритмы нейросети всё-таки смогут классифицировать правильно данный сайт.
Что проще и так даже ежу как мне кажется должно быть понятно.
И где Вы видели такую нейронную сеть?
Да только чтоб вогнать в неё обучающую выборку скажем из 1 000 000 сайтов по 100 Кб потребуется не одна сотня Мб/Гб/Тб... и т.д. В зависимости от того с какой точностью нам нужно будет определять класс сайта, напр. СДЛ/саттелит/дорвей и т.д.
Некорректное сравнение
И сомневаюсь что FineReader использует при распознавании нейронные сети. Причину написал выше.
Нейронная сеть требует много памяти, много процессорных ресурсов. И абсолютно всегда можно составить алгоритм который будет работать значительно эффективнее нейронной сети.
Нейронные сети используются только тогда, когда никаким другим способом решить задачу невозможно в данной ситуации
Нейросеть - это миф!
Никто, никогда, нигде, ни в каких коммерческих алгоритмах не использует нейросети.
Т.к. чтоб проанализировать 1 сайт по 1000...10000 параметров с помощью нейросети могут уйти не одни сутки, и использоваться не одна сотня террабайт оперативки.
Согласен. Этим и прикрываются обычно мошенники.
Никто не спорит, но факт наличия этих клиентов конечно нужно очень тщательно проверить. И надеятся что они не будут подставными. Если есть бумажные договора с клиентами - просто отлично. А если они существуют только на словах, и проверить их существование невозможно - я бы не стал рисковать.
За такие деньги, проще купить клиентов, которые будут приносить прибыль, например в том же Adwords, а сервера взять в аренду уже настроеные у какого-нибудь хостера серверов. За эти же деньги заказать и разработку сайта.
А так, покупка кота в мешке.
ИМХО конечно =)
Готовый рабочий настроенный бизнес, который стабильно приносит прибыль, никто продавать не будет. А быть тем лохом, которому сплавят фуфло, мало кому захочется, хотя, я уверен найдутся и такие люди
Наверное на это и был расчет. Что те несколько десятков аккаунтов которые они отдадут почти бесплатно, сделают им рекламу на форумах/блогах и других местах.
ГГ. Самим не смешно ли?
За $0.14 хостинг на пол года. За такую цену, пусть они работают хоть раз в 3 дня. Понятно что серьезных проектов за такие деньги никто размещать не будет. А вот протестировать их хостинг пол года нахаляву, то почему бы и нет.