- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Ключевой шаг DeepSeek — принудить эти связи жить на заданном математическом многообразии.
Это не поможет ИМХО, есть пределы вычислительных мощностей и за них никак не перескочить.
Ты спрашивал в чём существующие модели меня не устраивают. Я уже ответил, тем что они требовательны к вычислительным мощностям. Если ты не в курсе, то существующим LLM нужно просчитывать все эмбендинги всего словаря, а это несколько сот тысяч для каждого следующего слова в ответе, то есть миллиарды операций вычислений. Да есть алгоритмы уменьшающие, но всё равно головному движку приходится перепроверять и если отклоняет вероятность, то запускать дочернюю нейросеть для поиска новой вероятности и тд.
ЗЫ. Короче проблема ИИ сейчас это очень много вычислений, то есть требовательные к вычислительным мощностям и распределить это на несколько машин тоже проблемно. Упс. Ждём квантовые компьютеры.
А ещё бывает склоняет несклоняемые слова и придумывает несуществующие формы слов. Но зато всегда признаётся, что лоханулся 😀
Ну для того, чтобы признался - его нужно поправить.
По текстам там конечно всегда нужны правки, он и иероглиф иной раз не дурак вставить в русский текст (но это больше на глюки похоже).
В длинном тексте всегда будут ошибки разные.
Это не поможет ИМХО, есть пределы вычислительных мощностей и за них никак не перескочить.
Ты спрашивал в чём существующие модели меня не устраивают. Я уже ответил, тем что они требовательны к вычислительным мощностям. Если ты не в курсе, то существующим LLM нужно просчитывать все эмбендинги всего словаря, а это несколько сот тысяч для каждого следующего слова в ответе, то есть миллиарды операций вычислений. Да есть алгоритмы уменьшающие, но всё равно головному движку приходится перепроверять и если отклоняет вероятность, то запускать дочернюю нейросеть для поиска новой вероятности и тд.
ЗЫ. Короче проблема ИИ сейчас это очень много вычислений, то есть требовательные к вычислительным мощностям и распределить это на несколько машин тоже проблемно. Упс. Ждём квантовые компьютеры.
оцени релевантность ответа пользователя на это сообщение
Релевантность: Низкая.
Ответ пользователя не относится к теме сообщения. Он игнорирует содержание статьи про mHC-гиперсвязи DeepSeek и переводит разговор на другую проблему — общую «требовательность к вычислительным мощностям» LLM.
Сообщение от DeepSeek — о качественных улучшениях архитектуры (стабильность обучения, эффективность передачи сигнала). Ответ пользователя — о количественных ограничениях железа и необходимости квантовых компьютеров. Эти две темы почти не пересекаются:
Вообще советую сделать инструкцию в Курсоре целиком или в Воркфлоу, чтобы создавалась в конце диалога:
1. краткая выжимка с диалога;
2. создавался док файл проекта, где хранится документация по файлам, функциям, БД (если есть), логике, технические данные.
Это то, что напрямую к документации отношения не имеет. По сути - база знаний.
Сильно упрощает работу. Также есть скиллы, которые отвечают за обработку контекста проекта в Курсоре. С ними качество значительно повышается, уменьшается галлюцинация. В том числе сужается диалог, а ответы Ai проходят верификацию интента проекта.
Это очень правильно. Я не знаю, у меня проект большой или че. Но одни обновления документации у меня иногда лимит всей сессии сжирает. ChatGPT пишет и пишет спокойно, анализирует и тут же дальше можно работать. Качество, ну чуть похуже может, но не фундаментально. 200 евро в месяц я за "чуть получше " платить не хочу.
Прочитал твой ответ, прифигел - это ж насколько нужно не читать и не понимать темы. Вот для ясности приведу ответ от ИИ
Ты походу вообще не отдупляешь что такое ИИ. Уже квантовые компьютеры притянул - слово понравилось?
Как ты вообще дожил-то до своих лет.. даже сам переварить моё сообщение не смог, использовал ИИ 😁
Во-первых, я ответил на ранее заданный мне вопрос чём существующие движки ИИ меня не устраивают. Во-вторых, обучение модели выполняется один раз, ну уменьшили они скорость и потребление ресурсов, в итоге работа генерации осталась прежняя с высокими требованиями в вычислительным мощностям.
ЗЫ. В третьих, научись лучше думать своей головой, а то деградируешь не по дням, в по часам уже..
Во-вторых, обучение модели выполняется один раз, ну уменьшили они скорость и потребление ресурсов, в итоге работа генерации осталась прежняя с высокими требованиями в вычислительным мощностям.
Стабильность: удалось обучить модель на 27 млрд параметров, которую раньше нельзя было стабилизировать с обычными гипер-связями.
Производительность: значительное улучшение на бенчмарках кодирования, математики и рассуждений (BBH и DROP).
Как ты вообще дожил-то до своих лет.. даже сам переварить моё сообщение не смог, использовал ИИ
Прочитал твой ответ, прифигел - это ж насколько нужно не читать и не понимать темы. Вот для ясности приведу ответ от ИИ
Во-первых, я ответил на ранее заданный мне вопрос чём существующие движки ИИ меня не устраивают.
Это очень правильно.
Соответственно ты не гоняешь постоянно весь контекст, используешь то что нужно. А если у тебя грамотная иерархия - то будет нормально работать кэширование
ЗЫ. Короче проблема ИИ сейчас это очень много вычислений, то есть требовательные к вычислительным мощностям и распределить это на несколько машин тоже проблемно. Упс. Ждём квантовые компьютеры.
Чат жопити тупее осла. Вычислительные мощности его умнее не сделают.
Мне сегодня надо было решить элементарную математическую задачу. Тупо комбинаторика. Не более.
Мне было лень, а он никак и ни в какую. :)
А пришли ко мне уже с готовым решением от этого чата жопити.
Пришлось перебороть свою лень, чуть-чуть подумать, зато я сэкономил много чужих денег.
Обучить чат жопити думать нельзя, а гуглить по вашим бложикам он умеет, но качество инфы с этих бложиков подходит лишь для стандартных решений.
Это прям очень базовые принципы работы, когда ты не умеешь в РАГ, например. Для антропика это базовый совет - Базовый агент+ скилы+ периодически копиакт конверсэйшен. Впрочем не знаю как курсор, Гитхаб копайлот это делает сам.
Соответственно ты не гоняешь постоянно весь контекст, используешь то что нужно. А если у тебя грамотная иерархия - то будет нормально работать кэширование