- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
расскажи хотя-бы как генерируется осмысленный текст и приведи примеры кода.
ЗЫ. Я знаю как генерируется осмысленный текст нейросетью, тестировал свои способы на Rust.
Спорим, не знаешь? Очередная сказка) А у мен, например есть готовый код, который умеет разобрать текст. Например, для перевода это работает так( ответ в режиме дебаггинга)
Немного деталей:
Промпт:
Данные:
{
Ответ и токенизация:
translation
Привет, я ищу рекомендации по историческим книгам в топ-10 с 1900 по 2000 год.
Here's a breakdown of the translation:
- Привет (Hello)
- я (I'm)
- ищу (I'm looking for)
- рекомендации (recommendations)
- по (about)
- историческим (historical)
- книгам (books)
- в (in)
- топ-10 (top-10)
- с (from)
- 1900 (1900)
- по (to)
- 2000 (2000 год) (year)
Теперь жду твой пример, как это работает, если ты утверждаешь что знаешь и делал))) И к слову, если бы ты точно понимал о чем речь - знал бы что такое, как и почему используются именно графовые базы данных для создание пре-тренинг моделей.
чтобы понять, что ЖПТ косячит
а человеки не косячат?
Так и ваши сайты никому не нужны.
если были бы не нужны, то там бы не было трафа. Логично?
а человеки не косячат?
Косячат. И эта основная причина почему сегодняшний ИИ сократит рабочие места. Заменит тех, кто косячит. Потому что заменить косяк, которому надо платить, на косяк, которому не надо, - выгодно.
Отсюда вывод. Хочешь оплату труда - не косяч, и не читай ЖПТ.
А у мен, например есть готовый код, который умеет разобрать текст. Например, для перевода это работает так( ответ в режиме дебаггинга)
Это чушь собачья..
Теперь жду твой пример, как это работает, если ты утверждаешь что знаешь и делал))) И к слову, если бы ты точно понимал о чем речь - знал бы что такое, как и почему используются именно графовые базы данных для создание пре-тренинг моделей.
Во-первых ты сказал, что сможешь всё объяснить и ничего не объяснил. Во-вторых ты используешь готовые решения, а не создаёшь свои нейросети, где примеры кода генерирующего осмысленный текст с пояснениями?
ЗЫ. А в-третиьх, я тебе ничего не покажу пока не увижу что-то реального от тебя.
Во-первых ты сказал, что сможешь всё объяснить и ничего не объяснил. Во-вторых ты используешь готовые решения, а не создаёшь свои нейросети, где примеры кода генерирующего осмысленный текст с пояснениями?
Тому, кто разбирается, достаточно того что я привел, чтобы понять, как система делает токенизацию данных, если тебе это нужно разжевывать, то это значит только то, что ты ничего не понимаешь. Ты до сих пор не понял даже, что такое натренировать модель и сколько это стоит. Вот это то, что ты пытаешься выдать за свою нейросеть - чепуха несусветная. Ты понимаешь хоть уровень затрат? русский алфавит это уже 33 токена, сколько базовый словарь займет? Не самая новая LLama Это от 24 Гигов. Популярная Llama 3.2 1B сьела 370к часов тренировки на GPU, а не домашнем компе с мощностью 700W, Выброс СО2 - 107 тонн!!! Это только основная таблица без квантизации, адаптеров и тюнинга! А ты тут заливаешь что написал свою языковую модель. Твоя модели и "Мама мыла раму " не сможет сказать.
Надоел уже со своими сказками. Ни слова по делу не знаешь, пример привести не можешь, ни одного термина не понимаешь. Не засоряй тему.
Тому, кто разбирается, достаточно того что я привел, чтобы понять, как система делает токенизацию данных, если тебе это нужно разжевывать, то это значит только то, что ты ничего не понимаешь. Ты до сих пор не понял даже, что такое натренировать модель и сколько это стоит. Вот это то, что ты пытаешься выдать за свою нейросеть - чепуха несусветная. Ты понимаешь хоть уровень затрат? русский алфавит это уже 33 токена, сколько базовый словарь займет? Не самая новая LLama Это от 24 Гигов. Популярная Llama 3.2 1B сьела 370к часов тренировки на GPU, а не домашнем компе с мощностью 700W, Выброс СО2 - 107 тонн!!! Это только основная таблица без квантизации, адаптеров и тюнинга! А ты тут заливаешь что написал свою языковую модель. Твоя модели и "Мама мыла раму " не сможет сказать.
Надоел уже со своими сказками. Ни слова по делу не знаешь, пример привести не можешь, ни одного термина не понимаешь. Не засоряй тему.
Всё с тобой понятно.. Твой уровень интеллекта сопоставим с теми кто утверждает, что ООП это вред. Да, ты используешь ООП и знаешь его плюсы перед функциональным программированием, да ты используешь разные готовые решения в том числе и ИИ. Но то как оно работает не понимаешь и не знаешь, постоянно ссылаешься на разные источники, библиотеки и тд. Даже в этом ответе ты даже ума не приложил, что я тебя спросил, а я спросил о том как генерируется осмысленный текст нейросетью. Если бы у тебя реально были знания в этой области, то ты тут не писал бы о азах про веса, токенизацию и прочее. Да это основы нейросетей, но то как происходит составление фразы\предложения с осмыслением ты даже понятия не имеешь..
ЗЫ. Развлекайся в своей теме дальше, мни себя мега гуру по нейросетям..
Твой уровень интеллекта сопоставим с теми кто утверждает, что ООП это вред. Да, ты используешь ООП и знаешь его плюсы перед функциональным программированием.
Ой, всё, ...
как происходит составление фразы\предложения с осмыслением ты даже понятия не имеешь..
Да ладно))) А ты имеешь? Тогда почему не понимаешь мои вопросы и не отвечаешь. Любой, кто имеет минимальное понятие о работе нейросети, уже бы понял мой ответ про токены, как они создаются, как используются входные токены для предсказания ответа. Или тебе надо разжевать про генерацию слоев? Или какие существуют методы выбора?
Если ты тренировал свою сеть - можешь привести ее основные параметры? Размер, тип тензора, который использовал, обьем?
Не отвечаешь - вали из темы, сказочник, надоел уже
Ой, всё, ...
Ну так расскажешь, почему ООП развод для лохов? Как именно там лохов разводят? На что? )))
Или тебе надо разжевать про генерацию слоев? Или какие существуют методы выбора?
Давай, разжуй 😀