Слушай, ты хоть раз видел-то робот пылесос? Понимаешь как он работает? что он у тебя там трет?
Боюсь спросить - как вопрос аккумуляторов относиться к работе/полезности ИИ? Попробуешь перечитать тему топика?
Как раз сегодня в магазе смотрел новые модели пылесосов. Модели с ИИ уже появились, надо брать) Подключу его к форуму, все умнее будет фом неверующих и контекст лучше сгенерирует)
Копеечный и хватает месяца на три. Понятно что это не для нищебродов.
А ты когда убираешь, моешь пол прямо по грязным трусам, которые перед этим на пол кинул? У меня 64 квадрата хата, мне хватает на 2-3 уборки одной зарядки. Для больших домов более чем тоже.
Каких дыр, ты вообще хоть раз видел робот-пылесос? Равномерно убирает.
Можно програмно, можно по обучению. Так же как в автомобиле, если я с утра в будни выезжаю - он предложит мне маршрут на работу, если вечером - то в зависимости от дня - домой или в спортзал.
Ты опять подменяешь понятия и валишь все в кучу. У каждого инструмента своя область применения и не надо обобщать.
Зачем вникать в то, что выглядит слабо имеющим перспективы? Очередной опиум для народа.
У вас есть/был робот-пылесос? Ерундистика. За 10 лет существования этой ниши ума ему вы так и не прибавили. Как было проще и надежней орудовать обычным и тряпкой, так и осталось.
И ты 30+ страниц пытаешься упорно этот опиум разоблачить? Лично я вот не пишу в темах, которые мне неинтересны.
И в очередной раз неудачный пример. Как говориться, если вы не любите людей, вы просто не умеете их правильно готовить. Для меня робот-пылесос это незаменимая штука, особенно новые модели, моющие с двумя вращающимися тряпками. Сам себе ходит по расписанию, сам пылесосит, моет, раз в неделю примерно нужно в доке убрать мусор и заменить воду. В квартире идеально чисто, можно ходить в белых носках. Он уже знает, когда обычно дома никого нет и в это время убирается.
А ИИ такая бесперспективная вещь, что его уже скоро в утюги будут внедрять)
Не создашь и не изучишь. Ты за 30 страниц топика не смог понять о чем он, а нашему искусственному разуму понадобиться пара секунд, что понять твой уровень знаний.
В том то и дело, что написать примитивный пример который фактически не решает поставленной задачи с использованием случайных чисел, процентов и тп. это GPT выведет( и не всегда рабочий код к тому же).
Мой диагноз относительно тебя всё же верный с самого начала нашего общения, в очередной раз ты это подтвердил.. Что соображения у тебя нет, ты привёл пример кода и не смог даже промпт для нейронки нормальный составить, не говоря уже чтобы получить реальный прототип нейросети, которая реально генерирует осмысленные слова, а не методом rand и вероятностями, извини, но это ж реально диагноз..
ЗЫ. А ещё мне тут втирал про дифференциалы и интегралы..
Уже даже и не знаю, плакать или смеяться с твоей ограниченности... Ты хоть прочитал, то что я написал, прежде чем создавать свой "осмысленный " текст? Приведенный алгоритм - Цепь Маркова, не являющийся в полной мере реализацией нейросети, но позволяющий получать результат на основе предыдущих состояний. Ты не понимаешь, зачем там рандомизация? Ты не в курсе что и полноценные нейросети не создают "осмысленный " текст, а высчитывают вероятность, в данном случае следующей буквы на основе полученных данных? Если входной слой будет содержать ошибочные или бессмысленные данные то и на выходе будет набор букв, а не слово. Ровно как и в твоем случае - генерируешь тупость, вместо того, чтобы прочитать и вникнуть. Реализация тензора - сложнее, но там уже можно использовать несколько скрытых слоев для повышения точности выходного слоя. Жалко тратить время даже на тебя. Читать сначала научись, потом в умные дискуссии лезь.
А я все ждал, когда же патриоты начнут радоваться))) курсу в 109)))5 ноября тоже было укрепление:
11 ноября:
22 октября:
Все зашибись)))
Реализовал еще два варианта нейросети- подбора слов. С помощью numpy - либы пайтона для числовых расширений. Ну и классика с помощью Tensorflow.
Вывод все тот же - это начинает работать на огромных обьемах данных, поэтому практического смысла не имеет в принципе особого. Гораздо продуктивнее работать с LLM+RAG. Можно создавать справочники, документацию, чатботы для хелпдеск...
Так как все антижэпттэшники слились и отпуск у меня тоже закончился, предложение о соревновании сеошник/установщик окон против искусственного разума снимается.
Например: написать нейросеть на Rust без сторонних библиотек, которая будет обучатся словам и при подаче первой буквы генерировать слово из обученных данных.
Там около 200 строк всего, я такую писал. Можешь повторить с помощью GPT?
Это задача которую делают все новички, неважно на каком языке. На том же пайтоне гораздо удобнее писать. Классическая задача из учебника по DS. Это даже не нейросеть - Markov chain тут вполне достаточно.
Никакой практической нагрузки не несет, так, немного разобраться как работают вероятностные модели. На пайтоне реализация займет примерно 50 строк:
import randomwords = ["apple", "banana", "orange", "grape", "melon", "kiwi", "peach", "ananas", "grapefruit", "pepper", "melon", "watermelon", "potatoes"]transitions = {}for word in words: for i in range(len(word)): key = word[max(0, i - 1):i + 1] # use two symb next_letter = word[i + 1] if i + 1 < len(word) else None if key not in transitions: transitions[key] = {} if next_letter: transitions[key][next_letter] = transitions[key].get(next_letter, 0) + 1for letter, next_letters in transitions.items(): total = sum(next_letters.values()) for next_letter in next_letters: next_letters[next_letter] /= totaldef generate_word(start_sequence, max_length=10): word = start_sequence current_sequence = start_sequence[-2:] # last 2 symb for _ in range(max_length - len(start_sequence)): if current_sequence not in transitions or not transitions[current_sequence]: break next_letters = transitions[current_sequence] next_letter = random.choices( list(next_letters.keys()), weights=next_letters.values() )[0] if next_letter is None: break word += next_letter current_sequence = word[-2:] # Обновляем текущую последовательность return wordif __name__ == "__main__": start = input("Введите первую букву: ").strip().lower() print("Сгенерированное слово:", generate_word(start))
Чем больше список слов - тем точнее предсказывает. Использует 2 буквы, но можно и усложнить.
Те, кто пробовал поработать с Cloud/Anthropic - реально она круче gpt-4/4o? Читаю много отзывов положительных, особенно в пляне кодинга.