Sly32

Рейтинг
370
Регистрация
29.03.2012
leoseo #:
А рубль уже начал укрепляться :

А я все ждал, когда же патриоты начнут радоваться))) курсу в 109)))
5 ноября тоже было укрепление:

leoseo #:
Уже 97,5. А было 99. Пошло снижение! Действительно удивляться не стоит, потому что экономика России крепка и рубль не так уж и слабая валюта, чтобы стоить 99 руб. за доллар.

11 ноября:

leoseo #:
Курс доллара уже 95 . А индекс Мосбиржи каждый день открывается ГЭПом вверх. ВСЁ ЗАШИБИСЬ РЕБЯТА !!

22 октября:

leoseo #:
Уже 95, потихоньку началось снижение: 

Все зашибись))) 

Реализовал еще два варианта нейросети- подбора слов. С помощью numpy - либы пайтона для  числовых расширений. Ну и классика с помощью Tensorflow.

Вывод все тот же - это начинает работать на огромных обьемах данных, поэтому практического смысла не имеет в принципе особого. Гораздо продуктивнее  работать с LLM+RAG. Можно создавать справочники, документацию, чатботы  для хелпдеск...

Так как все антижэпттэшники слились и отпуск у меня тоже закончился, предложение о соревновании сеошник/установщик окон против искусственного разума снимается.

Смотрю, скоро любитель бриджа и выпускник Бауманки снова сможет сдавать доллары по 120... Графики на бирже какие-то угрожающие...
ArbNet #:

Например: написать нейросеть на Rust без сторонних библиотек, которая будет обучатся словам и при подаче первой буквы генерировать слово из обученных данных.

Там около 200 строк всего, я такую писал. Можешь повторить с помощью GPT?

Это задача которую делают все новички, неважно на каком языке. На том же пайтоне гораздо удобнее писать. Классическая задача из учебника по DS. Это даже не нейросеть - Markov chain тут вполне достаточно.

Никакой практической нагрузки не несет, так, немного разобраться как работают вероятностные модели. На пайтоне реализация займет примерно 50 строк:

import random
words = ["apple", "banana", "orange", "grape", "melon", "kiwi", "peach", "ananas", "grapefruit", "pepper", "melon", "watermelon", "potatoes"]

transitions = {}

for word in words:
    for i in range(len(word)):
        key = word[max(0, i - 1):i + 1]  # use two symb
        next_letter = word[i + 1] if i + 1 < len(word) else None

        if key not in transitions:
            transitions[key] = {}

        if next_letter:
            transitions[key][next_letter] = transitions[key].get(next_letter, 0) + 1


for letter, next_letters in transitions.items():
    total = sum(next_letters.values())
    for next_letter in next_letters:
        next_letters[next_letter] /= total


def generate_word(start_sequence, max_length=10):
    word = start_sequence
    current_sequence = start_sequence[-2:]  # last 2 symb

    for _ in range(max_length - len(start_sequence)):
        if current_sequence not in transitions or not transitions[current_sequence]:
            break

        next_letters = transitions[current_sequence]
        next_letter = random.choices(
            list(next_letters.keys()),
            weights=next_letters.values()
        )[0]

        if next_letter is None:
            break

        word += next_letter
        current_sequence = word[-2:]  # Обновляем текущую последовательность

    return word


if __name__ == "__main__":
    
    start = input("Введите первую букву: ").strip().lower()
    print("Сгенерированное слово:", generate_word(start))

Чем больше список слов - тем точнее предсказывает. Использует 2 буквы, но можно и усложнить.

Те, кто пробовал поработать с Cloud/Anthropic - реально она круче gpt-4/4o? Читаю много отзывов положительных, особенно в пляне кодинга.

plab #:
Так я показал, что ЖПТ не понимает тексты. Он может выдавать готовую информацию и ее перекомбинирование.

Ты ничего не показал. Взял дешевую общедоступную модель, не создал нормальный промпт... это все детские игрушки. Я предложил проверить, причем в той сфере, в которой ты считаешь себя знатоком. Ты слился.

plab #:
Блаж ЖПТ вызывает, т.к. тексты "натренированы" через так называемых AI-тренеров. Это редакторы-профессионалы.

Это твои фантазии из обрывков слухов. Создание моделей - сложный многоэтапный процесс. 

В принципе, после твоего слива говорить не о чем, надоела пустопорожняя болтовня, не подкрепленная знаниями. Адье!  

Devstory #:

Это немного не так работает. Женщины идут на сз чтобы повысить свою значимость, убежать от реальности в которой она 40 летняя одинокая кошатница , а в интернете ей пишут шейхи и илоны маски, не меньше и там она богиня, царица и шальная императрица, расхитительница сердец . 

Возникает вопрос - откуда ты так в этом осведомлен?

Delysid #:
Собрался считать цифры, формула из 12 элементов, где числа, месяцы, года, условия, итог подсчёт суммы.

Зачем для этого движок?

mut480 #:

И стоит в 4 раза дороже. А если под ВАШУ конкретную задачу это не нужно, то зачем платить больше?

Самсунг S24 стоит не дешевле нового Айфона, не надо сказок. Качественное не бывает копеейным. 

ОМГ, с каким же  удовольствием я вернулся к своему старенькому айфону после вынужденной недели мучений на ведроиде))) Все интуитивно понятно, все работает, все под рукой!

plab #:
Какие условия ставить, если косяки в элементарном:

Кароче, понятно, как дошло до практики  -  пошел слив. Я и предлагал тебе доказать, что, с твоей точки зрения, ИИ - фуфло, пузырь и ничего не умеет.  Но как дело доходит до практики - все такие теоретики  в кусты. Потому что это не просто языком лопотать. 

Точно так же как кричащие о незаменимости сеошников попрятались, когда я предложил им поделиться данными для тренировки сеошной нейросети)))

Надеюсь, на этом засорение бессмысленными постами этой темы с твоей стороны закончилось.

Всего: 7322