- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Разумные люди есть, согласен с автором:
dzen.ru/a/ZpIBU950wlRpiMbt
Разумные люди есть, согласен с автором:
dzen.ru/a/ZpIBU950wlRpiMbt
Он не может равномерно убирать, если на полу стоят столы, стулья. Там вычисления идут геометрии. Не идеальные. Переезжает с места на место, в это время трет середину. Или у тебя запоминает, в каком метре уже потер и поднимает тряпку?
Слушай, ты хоть раз видел-то робот пылесос? Понимаешь как он работает? что он у тебя там трет?
Одна из главных проблем робототехники - аккумулятор. Массу твоего смартфона создают почти полностью.
Боюсь спросить - как вопрос аккумуляторов относиться к работе/полезности ИИ? Попробуешь перечитать тему топика?
Как раз сегодня в магазе смотрел новые модели пылесосов. Модели с ИИ уже появились, надо брать) Подключу его к форуму, все умнее будет фом неверующих и контекст лучше сгенерирует)
когда пишешь запрос , а он тебе рисует совсем что-то другое, а чтобы рисовал точное соответствие с написанным промптом
Так они там и рисуют точное соответствие с промтом. Ни сарказма не понимает, ни контекста (тему вопроса).
Статья критикует искусственный интеллект (ИИ), утверждая, что он не является разумным и не соответствует ожиданиям. Автор называет ИИ "змеиного масла" и подчеркивает, что текущие технологии далеки от Искусственного Общего Интеллекта (АГИ) и не обладают эмоциональным интеллектом. Он указывает на высокие инвестиции в ИИ, но отмечает отсутствие реальной прибыльности у компаний. В заключение, автор призывает к этическому подходу и осознанию ограничений ИИ, предостерегая от чрезмерного оптимизма и "продавцов змеиного масла".
Вы сделали дескрипшн по политкорректной форме статьи приняв ее за основу. Смысловая основа статьи - ИИ - в первую очередь инструмент развода лохов на бабки. Реальных плюсов от него - кот наплакал.
Слушай, ты хоть раз видел-то робот пылесос? Понимаешь как он работает? что он у тебя там трет?
У меня робот-полотер. Купил его лет 10 назад. Модель не из дешевого сегмента. Тогда стоил 17т.р. Больше покупать не буду. Не уговаривайте. Не верю:
Как раз сегодня в магазе смотрел новые модели пылесосов. Модели с ИИ уже появились, надо брать)
Чтобы немного развеять мракобесие, сгустившееся над этим топиком, проведу небольшой ликбез и на простом примере расскажу, как могут генерироваться слова в нейросетях.
Для примера возьму уже приведенный выше алгоритм "Цепи Маркова" Он был описан, если не ошибаюсь в ... 1906 году. Это информация для тех, кто рассказывает сказки о том, что знает, как улучшить нейросети))). Возможно, по ходу станет понятно, почему только сейчас это все получается реализовать.
Что бы вам не гуглить:
Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, где вероятность наступления каждого события зависит только от состояния, достигнутого в предыдущем событии[1].
Еще проще - на основе имеющихся данных высчитывается вероятность появления следующего символа.
Как это работает.
Возьмем конечный набор данных:
В нашем алгоритме мы будем строить вероятности на основе одного или двух символов, соответственно составляем словарь всех одно- и двухбуквенных сочетаний и количество появлений следующей буквы для них.
На выходе имеем следующий словарь( использую питоновские термины, но думаю их несложно интерпретировать в любой известный вам язык)
Код:
Результат:
{'a': {'n': 1, 'p': 1},'ac': {'h': 1},
'an': {'a': 4, 'g': 1},
'ap': {'e': 2, 'p': 2},
'as': {},
'at': {'e': 1, 'o': 1},
'b': {'a': 1},
'ba': {'n': 1},
'c': {'o': 1},
'ch': {},
'co': {'c': 1, 'n': 1},
'ea': {'c': 1, 'p': 1},
'ef': {'r': 1},
'el': {'o': 3},
'ep': {'p': 1},
'er': {'m': 1},
'es': {},
'fr': {'u': 1},
'g': {'r': 2},
'ge': {},
'gr': {'a': 2},
'in': {'e': 1},
'it': {},
'iw': {'i': 1},
'k': {'i': 1},
'ki': {'w': 1},
'le': {},
'lo': {'n': 3},
'm': {'e': 2},
'me': {'l': 3},
'na': {'n': 2, 's': 1},
'ne': {'a': 1},
'ng': {'e': 1},
'nu': {'t': 1},
'o': {'r': 1},
'oc': {'o': 1},
'oe': {'s': 1},
'on': {'u': 1},
'or': {'a': 1},
'ot': {'a': 1},
'p': {'e': 2, 'i': 1, 'o': 1},
'pe': {'a': 1, 'f': 1, 'p': 1, 'r': 1},
'pi': {'n': 1},
'pl': {'e': 2},
'po': {'t': 1},
'pp': {'e': 1, 'l': 2},
'ra': {'n': 1, 'p': 2},
'rm': {'e': 1},
'ru': {'i': 1},
'ta': {'t': 1},
'te': {'r': 1},
'to': {'e': 1},
'ui': {'t': 1},
'ut': {},
'w': {'a': 1},
'wa': {'t': 1},
'wi': {}}
Обратите внимание, что для 15 базовых слов мы получили словарь из 57 элементов. Дальше поймете, почему я это отметил.
Но это пока еще сырой список. Нам же нужно понимать вероятность появления следующей буквы, поэтому несложным путем высчитаем ее:
В результате наш псеводнейрон уже выглядит так:
{'a': {'n': 0.5, 'p': 0.5},'ac': {'h': 1.0},
'an': {'a': 0.8, 'g': 0.2},
'ap': {'e': 0.5, 'p': 0.5},
'as': {},
'at': {'e': 0.5, 'o': 0.5},
'b': {'a': 1.0},
'ba': {'n': 1.0},
'c': {'o': 1.0},
'ch': {},
'co': {'c': 0.5, 'n': 0.5},
'ea': {'c': 0.5, 'p': 0.5},
'ef': {'r': 1.0},
'el': {'o': 1.0},
'ep': {'p': 1.0},
'er': {'m': 1.0},
'es': {},
'fr': {'u': 1.0},
'g': {'r': 1.0},
'ge': {},
'gr': {'a': 1.0},
'in': {'e': 1.0},
'it': {},
'iw': {'i': 1.0},
'k': {'i': 1.0},
'ki': {'w': 1.0},
'le': {},
'lo': {'n': 1.0},
'm': {'e': 1.0},
'me': {'l': 1.0},
'na': {'n': 0.6666666666666666, 's': 0.3333333333333333},
'ne': {'a': 1.0},
'ng': {'e': 1.0},
'nu': {'t': 1.0},
'o': {'r': 1.0},
'oc': {'o': 1.0},
'oe': {'s': 1.0},
'on': {'u': 1.0},
'or': {'a': 1.0},
'ot': {'a': 1.0},
'p': {'e': 0.5, 'i': 0.25, 'o': 0.25},
'pe': {'a': 0.25, 'f': 0.25, 'p': 0.25, 'r': 0.25},
'pi': {'n': 1.0},
'pl': {'e': 1.0},
'po': {'t': 1.0},
'pp': {'e': 0.3333333333333333, 'l': 0.6666666666666666},
'ra': {'n': 0.3333333333333333, 'p': 0.6666666666666666},
'rm': {'e': 1.0},
'ru': {'i': 1.0},
'ta': {'t': 1.0},
'te': {'r': 1.0},
'to': {'e': 1.0},
'ui': {'t': 1.0},
'ut': {},
'w': {'a': 1.0},
'wa': {'t': 1.0},
'wi': {}}
И собственно, уже все готово для генерации слова.
Как это происходит? Запускаем код и вводим первые 2 буквы, из которых мы хотим сгенерировать слово, например "pe" В словаре находим сочетания для него:
Недалекий фрефоркер увидел в коде random, не удосужился почитать, что это за функция. А random.choice выбирает не случайную букву из последоваиельности, а на основе весов. В данном случае веса одинаковы, значит выбирается первая буква. Получаем "pea". Помним, что наш алгоритм использует 2 последних буквы. Значит ищем следующее сочетние для "ea":
Получаем: "peac", продолжаем поиск для "ac":
Тут уже без вариантов. Получаем: "peach"
Ищем для "ch":
'ch': {},Вариантов нет, генерация закончена, полученное слово - персик) Можно еще добавить проверку на наличие слова в словаре исходном и останавливать генерацию при совпадении.
Это простейший механизм генерции слов. Без дополнительного обучения системы, исправления ошибок и прочего. Просто? Да! А теперь подумаем - а не так ли работает наш мозг? Точно так же мы обрабатываем подходящие варианты и получаем результат.
Почему я в начале привел длины исходного списка и результирующего словаря? Это почему алгоритмы, известные в начале прошлого века, получилось реализовать только сейчас. Я использую только 15 исходных слов и для генерации беру последних 2 буквы. А попробуйте создать словарь, например из 100 слов и анализировать 4 буквы? Надеюсь все знают что такое декартово множество и смогут посчитать результирующий словарь.
А это самый простой и понятный механизм. Тензор использует более сложные алгоритмы для исключения ошибок, например.
Поэтому все это полезно в образовательных целях. На практике нужно учиться использовать LLMs и механизмы работы со своими данными.
Эмоционального интеллекта не существует. Либо эмоции, либо интеллект. Это разные вещи.
Дети, не получившие нормального эмоционального развития, потом тупые и безвольные по жизни. Эмоции запускают интеллект.
Поэтому все это полезно в образовательных целях. На практике нужно учиться использовать LLMs и механизмы работы со своими данными.
Зачем? На вскидку без вникания в то, что вы выложили, это перебор с подсчетом частот. Можно прыгнуть, плюнуть, посчитать числа, найти дисперсию в научных данных. Но зачем? Человек, экономя свое время и ресурсы, вынужден выбирать правильное действие из множества бессмысленных и миллиона возможных. Какой ограничить на "бессмысленность действий" у ИИ?
Но зачем?
Если ты до сих пор не понял, то для
экономя свое время и ресурсы,
Но вот этот перл обьясняет все:
На вскидку без вникания в то
Это догма твоего подхода ко всему. И очередная просьба - не засорять тему. Она для тех, кому интересно разобраться а не плюнуть. Продолжай мыть пол грязной тряпкой ручками.