Что может, что не может AI. Обсуждаем возможности, делимся опытом, спорим, но в рамках приличия.

P
На сайте с 26.04.2010
Offline
417
#291

Какие условия ставить, если косяки в элементарном:


Какой анализ? Текста? ИИ его не понимает.

P
На сайте с 26.04.2010
Offline
417
#292
ArbNet
На сайте с 27.10.2019
Offline
146
#293

plab #:

Алиса..

Алиса для получения корректных ответов не лучший вариант, очень сильно отстаёт в развитии от GPT

S3
На сайте с 29.03.2012
Offline
367
#294
plab #:
Какие условия ставить, если косяки в элементарном:

Кароче, понятно, как дошло до практики  -  пошел слив. Я и предлагал тебе доказать, что, с твоей точки зрения, ИИ - фуфло, пузырь и ничего не умеет.  Но как дело доходит до практики - все такие теоретики  в кусты. Потому что это не просто языком лопотать. 

Точно так же как кричащие о незаменимости сеошников попрятались, когда я предложил им поделиться данными для тренировки сеошной нейросети)))

Надеюсь, на этом засорение бессмысленными постами этой темы с твоей стороны закончилось.

P
На сайте с 26.04.2010
Offline
417
#295
Sly32 #:

Кароче, понятно, как дошло до практики  -  пошел слив. Я и предлагал тебе доказать, что, с твоей точки зрения, ИИ - фуфло, пузырь и ничего не умеет.  Но как дело доходит до практики - все такие теоретики  в кусты. Потому что это не просто языком лопотать. 

Так я показал, что ЖПТ не понимает тексты. Он может выдавать готовую информацию и ее перекомбинирование.

Большинство перекомбинаций дают бессмысленность, ложную информацию. 

Никто вам методу тренировки нейросети по своей теме разрабатывать не будет. Это трудоемкая задача. Зачем предлагать людям неоплачиваемую работу?

У меня может возникнуть мысль натренировать такую нейросеть для себя. Как проект более корректно, чем ЖПТ, отвечающий на все вопросы по определенной узкой тематике. Но зачем? Кому это надо? Какой дурак от научного мира будет задавать нейросети вопросы в разнобой, вместо полноценного чтения статей и литературы? Не получится ли очередной размягчитель мозгов для потенциальных идиотов? А как справочник нормально работает поиск, википедия. В любой науке перечень имеющих смысл вопросов не бесконечен. 

В то время как ЖПТ - игрушка, которую все тестируют задавая глупые вопросы и ржа над ответами.

Блаж ЖПТ вызывает, т.к. тексты "натренированы" через так называемых AI-тренеров. Это редакторы-профессионалы. Писать простым языком - их навык. Тексты легко читать. То, что они идут с потерей важной информации в сфере описания, заметит не каждый.

S3
На сайте с 29.03.2012
Offline
367
#296
plab #:
Так я показал, что ЖПТ не понимает тексты. Он может выдавать готовую информацию и ее перекомбинирование.

Ты ничего не показал. Взял дешевую общедоступную модель, не создал нормальный промпт... это все детские игрушки. Я предложил проверить, причем в той сфере, в которой ты считаешь себя знатоком. Ты слился.

plab #:
Блаж ЖПТ вызывает, т.к. тексты "натренированы" через так называемых AI-тренеров. Это редакторы-профессионалы.

Это твои фантазии из обрывков слухов. Создание моделей - сложный многоэтапный процесс. 

В принципе, после твоего слива говорить не о чем, надоела пустопорожняя болтовня, не подкрепленная знаниями. Адье!  

P
На сайте с 26.04.2010
Offline
417
#297
Sly32 #:
Взял дешевую общедоступную модель

Более дорогая по всей видимости лучше ищет и правильней подставляет ответы со сторонних источников, а не сочиняет сама, как более дешевая, ориентирования на развлечение школоты и пенсов:


P
На сайте с 26.04.2010
Offline
417
#298
Sly32 #:
не создал нормальный промпт...

Я создал нормальный промпт, но не детализированный. Детализация демонстрировала бы, что я не обычный юзер, а разбирающийся в теме вопроса.

Sly32 #:

Я предложил проверить, причем в той сфере, в которой ты считаешь себя знатоком. Ты слился.

Я не слился, а задавал вопросы по сфере своего высшего образования. 

Sly32 #:
Это твои фантазии из обрывков слухов. Создание моделей - сложный многоэтапный процесс.

Забавно, когда прогеры, разрабатывающие ИИ, верят, что они разрабатывают именно интеллект. Несущий пользу. Хотя там больше того же смысла, что игровая индустрия.

S3
На сайте с 29.03.2012
Offline
367
#299

Те, кто пробовал поработать с Cloud/Anthropic - реально она круче gpt-4/4o? Читаю много отзывов положительных, особенно в пляне кодинга.

S3
На сайте с 29.03.2012
Offline
367
#300
ArbNet #:

Например: написать нейросеть на Rust без сторонних библиотек, которая будет обучатся словам и при подаче первой буквы генерировать слово из обученных данных.

Там около 200 строк всего, я такую писал. Можешь повторить с помощью GPT?

Это задача которую делают все новички, неважно на каком языке. На том же пайтоне гораздо удобнее писать. Классическая задача из учебника по DS. Это даже не нейросеть - Markov chain тут вполне достаточно.

Никакой практической нагрузки не несет, так, немного разобраться как работают вероятностные модели. На пайтоне реализация займет примерно 50 строк:

import random
words = ["apple", "banana", "orange", "grape", "melon", "kiwi", "peach", "ananas", "grapefruit", "pepper", "melon", "watermelon", "potatoes"]

transitions = {}

for word in words:
    for i in range(len(word)):
        key = word[max(0, i - 1):i + 1]  # use two symb
        next_letter = word[i + 1] if i + 1 < len(word) else None

        if key not in transitions:
            transitions[key] = {}

        if next_letter:
            transitions[key][next_letter] = transitions[key].get(next_letter, 0) + 1


for letter, next_letters in transitions.items():
    total = sum(next_letters.values())
    for next_letter in next_letters:
        next_letters[next_letter] /= total


def generate_word(start_sequence, max_length=10):
    word = start_sequence
    current_sequence = start_sequence[-2:]  # last 2 symb

    for _ in range(max_length - len(start_sequence)):
        if current_sequence not in transitions or not transitions[current_sequence]:
            break

        next_letters = transitions[current_sequence]
        next_letter = random.choices(
            list(next_letters.keys()),
            weights=next_letters.values()
        )[0]

        if next_letter is None:
            break

        word += next_letter
        current_sequence = word[-2:]  # Обновляем текущую последовательность

    return word


if __name__ == "__main__":
    
    start = input("Введите первую букву: ").strip().lower()
    print("Сгенерированное слово:", generate_word(start))

Чем больше список слов - тем точнее предсказывает. Использует 2 буквы, но можно и усложнить.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий