Что может, что не может AI. Обсуждаем возможности, делимся опытом, спорим, но в рамках приличия.

ArbNet
На сайте с 27.10.2019
Offline
150
#1401
master32 #:
ты же вроде разбираться начинал? не разобрался еще?)

Я то разбираюсь, в отличие от вас 😆

ArbNet
На сайте с 27.10.2019
Offline
150
#1402
Sly32 #:

Он все еще начинает))

А ты вайб-кодер, стрелки не переводи 😂

S3
На сайте с 29.03.2012
Offline
380
#1403
ArbNet #:

Я то разбираюсь, в отличие от вас 😆

Если бы это было так, не писал бы чушь про вайб и агентов

ArbNet
На сайте с 27.10.2019
Offline
150
#1404
Sly32 #:

Если бы это было так, не писал бы чушь про вайб и агентов

А ну-ка блесни эрудицией и объясни мне дремучему в чём разница 🫣

S3
На сайте с 29.03.2012
Offline
380
#1405
ArbNet #:

А ну-ка блесни эрудицией и объясни мне дремучему в чём разница 🫣

Погуглить не судьба? Или ты до сих пор не понимаешь что такое агент, что такое инструменты и как все это оркестрируется? Вайб кодинг и агентский- земля и небо по качеству

D
На сайте с 06.01.2022
Offline
34
#1406
Работать ai архитектором и внедрять агенты сейчас единственная нормальная тема в айти чтоб зарабатывать хорошие деньги. Составил план обучения с Клаудом и занимаюсь по  , когда отпашу смену в такси.  И пилю свой пет проект. Через полгода думаю подаваться на ЗП 500-700 тыс руб в месяц , видел пару таких вакансий. 
Вот план 
# План обучения: ML Engineer → Senior AI Multiagent Systems Engineer

**Исходная точка:** ML Engineer / Data Scientist без опыта LLM-агентов
**Темп:** 15–20 часов/неделю
**Общая длительность:** ~32 недели (7–8 месяцев)
**Цель:** выйти на уровень, достаточный для сопоставимых вакансий Senior AI Engineer

---

## Честная оценка вакансии

Прежде чем начать — важный контекст:

- Вакансия требует **10+ лет общего опыта** и **8+ лет production ML**. Если у тебя меньше — конкретно эта позиция вряд ли станет целью на ближайший год, но рынок AI Engineer огромный и похожих ролей с более мягкими фильтрами хватает.
- Часть требований очень узкие (Airbyte 1+ год, JavaScript 3+ лет production). Это часто "wish list" — реальные работодатели берут, если основная экспертиза сильная.
- **Главный рычаг роста для тебя — это не курсы, а портфолио**. Работодатели на Senior оценивают по проектам на GitHub, техблогу и способности рассуждать о трейд-оффах.

План ниже рассчитан на то, чтобы параллельно с обучением ты начал откликаться на Mid/Senior AI Engineer позиции уже с 4-го месяца — реальный опыт ускоряет рост в разы.

---

## Фаза 0: Калибровка (неделя 1, ~15 часов)

Цель — убрать пробелы в базовом ландшафте и настроить инфраструктуру.

**Что изучить:**
- Ландшафт современных LLM: OpenAI, Anthropic, Google, open-source (Llama, Qwen, DeepSeek, Mistral)
- Разница между моделями: context length, tool use, structured output, reasoning
- Pricing и latency трейд-оффы

**Настроить:**
- Аккаунты с API-доступом: OpenAI, Anthropic, Google AI Studio (есть бесплатный тир)
- Claude Code или Cursor как ежедневный инструмент разработки
- GitHub-репозиторий "ai-engineer-journey" — сюда будешь коммитить все проекты
- Блог на Habr / Medium / dev.to для конспектов

**Ресурсы:**
- Anthropic Docs → Overview
- OpenAI Cookbook
- Simon Willison's blog (лучший источник по практическим LLM-новостям)

---

## Фаза 1: LLM Foundations (недели 2–5, ~70 часов)

**Темы:**
- Prompt engineering: few-shot, chain-of-thought, XML-теги, системные промпты
- Tool use / function calling в OpenAI и Anthropic API
- Structured outputs: JSON schema, response formats
- Streaming, кэширование промптов (prompt caching у Anthropic)
- Безопасность: prompt injection, jailbreaks, базовые guardrails
- Context engineering: как правильно собирать контекст

**Практика (проект 1):**
Telegram или Discord бот на Python с Anthropic API. Требования:
- Минимум 3 tool'а (поиск в вебе, работа с календарём, работа с файлами)
- Структурированные ответы через JSON schema
- Логирование всех LLM-вызовов
- Базовый rate limiting

**Ресурсы:**
- Anthropic Prompt Engineering Guide
- OpenAI Cookbook (function calling)
- "Prompt Engineering Guide" от DAIR.AI
- Курс Anthropic Academy (бесплатный)

---

## Фаза 2: RAG-системы (недели 6–10, ~90 часов)

**Темы:**
- Embeddings: OpenAI text-embedding-3, Cohere, BGE, sentence-transformers
- Vector DB: pgvector (начни с этого), Qdrant, Weaviate, Pinecone
- Chunking стратегии: fixed, recursive, semantic, document-aware
- LangChain vs LlamaIndex — плюсы и минусы каждого
- Vertex AI RAG Engine (раз указан в вакансии)
- Продвинутые техники: hybrid search (BM25 + vector), reranking (Cohere Rerank, Jina), HyDE, parent-document retrievers, query rewriting
- Оценка качества RAG: Ragas, метрики retrieval (Recall@k, MRR) и генерации (faithfulness, answer relevance)

**Практика (проект 2):**
RAG поверх крупной технической документации (например, Kubernetes или Django docs).
- pgvector + reranker
- Hybrid search
- Eval-набор минимум из 50 вопросов с эталонными ответами
- Сравнение минимум 3 стратегий чанкинга
- Веб-UI (можно простой Streamlit)

**Ресурсы:**
- LlamaIndex docs (их учебные материалы лучше, чем у LangChain)
- "Retrieval-Augmented Generation for Large Language Models: A Survey" (arXiv)
- Блог Jason Liu (instructor, автор) по RAG
- Ragas docs

---

## Фаза 3: Agents и Multi-agent системы (недели 11–16, ~120 часов)

Это ядро вакансии — сюда вкладывай больше всего времени.

**Теория:**
- Парадигмы агентов: ReAct, Plan-and-Execute, Reflexion
- Multi-agent паттерны: supervisor, swarm, hierarchical, network
- Memory: short-term (conversation), long-term (vector), episodic, semantic
- Planning: task decomposition, replanning

**Фреймворки (изучить минимум три из списка в вакансии):**
- **Claude Agent SDK** (Anthropic) — начни с него, самый свежий и хорошо спроектирован
- **OpenAI Agents SDK**
- **Google ADK** (Agent Development Kit)
- **LangGraph** — для кастомных графов агентов, де-факто стандарт для сложных систем
- Memory-библиотеки: Mem0, Zep, LangMem

**Практика (проект 3 — флагман портфолио):**
Multi-agent research-ассистент. Требования:
- Минимум 3 агента с разными ролями (researcher, writer, critic)
- Внешние инструменты: веб-поиск, парсинг PDF, работа с таблицами
- Long-term memory через vector DB
- Human-in-the-loop для подтверждения важных действий
- Observability через LangSmith или Langfuse
- Полноценный README с архитектурной диаграммой

**Ресурсы:**
- Anthropic: "Building effective agents" (статья-манифест, читать обязательно)
- LangGraph tutorials
- Huyen Chip "AI Engineering" (книга)
- Блог Lilian Weng "LLM Powered Autonomous Agents"

---

## Фаза 4: Evaluation и Production-качество (недели 17–20, ~80 часов)

Навык, по которому отсеивают больше всего кандидатов.

**Темы:**
- Evaluation frameworks: Promptfoo, OpenAI Evals, Anthropic Evaluation Tools
- Custom eval pipelines на Python
- LLM-as-a-judge: когда работает, когда нет
- Ragas для RAG, AgentBench для агентов
- Observability: LangSmith, Langfuse, Arize Phoenix
- Guardrails AI, NeMo Guardrails
- Hallucination detection: self-consistency, SelfCheckGPT, verification агенты
- A/B тесты LLM-фич в проде

**Практика (проект 4):**
Полный eval-pipeline для проекта из Фазы 3:
- 100+ тестовых кейсов с разбиением по категориям
- Автоматические eval'ы в CI (GitHub Actions)
- Дашборд с метриками регрессии
- Guardrails на вход и выход агентов

**Ресурсы:**
- Eugene Yan "Evaluating LLMs" (блог)
- Hamel Husain блог (лучший по практике evals)
- Promptfoo docs
- "Your AI Product Needs Evals" — Hamel Husain

---

## Фаза 5: Мультимодальность и Voice (недели 21–24, ~80 часов)

**Темы:**
- Vision: GPT-4o, Claude Vision, Gemini — понимание скриншотов и UI
- Screenshot agents (browser-use, Claude Computer Use)
- Voice input: Whisper (OpenAI, Groq), Deepgram
- TTS: ElevenLabs, OpenAI TTS, Cartesia
- Real-time voice agents: LiveKit Agents, Pipecat, OpenAI Realtime API
- Multimodal RAG (поверх PDF со схемами и таблицами)

**Практика (проект 5):**
Голосовой ассистент, который:
- Слушает голосовой запрос
- Видит скриншот рабочего стола пользователя
- Выполняет действие через tool use
- Отвечает голосом

**Ресурсы:**
- LiveKit Agents docs
- OpenAI Realtime API
- Anthropic Computer Use Quickstart

---

## Фаза 6: JS/TS и интеграционный стек (недели 25–28, ~80 часов)

Закрываем пробелы, указанные в вакансии.

**Темы:**
- TypeScript за неделю (если не знаешь): Total TypeScript курс Matt Pocock
- Vercel AI SDK — стандарт для AI-фич в Next.js
- LangChain.js, LlamaIndex.TS
- **Airbyte**: base concepts, кастомные коннекторы, CDC, Airbyte Cloud vs OSS
- Workflow engines: Temporal (для надёжных long-running агентов), n8n (low-code RPA)
- Webhooks, API design для агентных систем

**Практика (проект 6):**
Next.js веб-интерфейс для агента из Фазы 3:
- Streaming ответов
- Мультисессии с персистентной памятью
- Airbyte пайплайн, который тянет данные в vector DB

**Ресурсы:**
- Vercel AI SDK docs
- Airbyte Academy
- Temporal учебник "Hello world in Python"

---

## Фаза 7: Portfolio, публикации, поиск работы (недели 29–32)

К этому моменту у тебя 5-6 серьёзных проектов. Теперь задача — сделать их видимыми.

**Что сделать:**
- Выбрать 3 сильнейших проекта и довести README, тесты, деплой до идеала
- Написать 4–5 технических постов (по одному на проект): не туториалы, а разборы трейд-оффов и ошибок
- Минимум 1 open-source contribution в LangChain / LlamaIndex / Promptfoo (исправление бага или документация)
- Обновить CV: переписать опыт через призму AI Engineering (ML Engineer опыт → "production ML systems" в CV)
- LinkedIn с постами раз в неделю
- Подготовиться к interview:
  - System design для AI (как задизайнить RAG для 10M документов, как сделать агента надёжным)
  - Coding: обычный алгоритмический скрининг никто не отменял
  - Домашки: готовься сделать тестовое за выходные
- Mock-интервью (Interviewing.io, Pramp, друзья из индустрии)

**Где искать позиции:**
- LinkedIn (ставь фильтр AI Engineer, LLM Engineer, Applied AI)
- hh.ru (специфично для рынка СНГ)
- Habr Career
- AI-специализированные: Cohere job board, ai-jobs.net, remoteok.com

---

## Параллельные привычки на весь период

- **Чтение каждую неделю:** Anthropic research, OpenAI blog, статьи на arXiv про агентов (поиск по "LLM agents", "tool use", "multi-agent")
- **Claude Code / Cursor в ежедневной работе** — без этого Senior AI Engineer в 2026 просто нерелевантен
- **Подписки на Twitter/X:** @swyx, @jxnlco (Jason Liu), @HamelHusain, @lilianweng, @karpathy, @simonw
- **Подкасты:** Latent Space, No Priors, MLOps Community
- **Discord-сообщества:** LlamaIndex, LangChain, MLOps Community

---

## Если нужно ускориться — что выкинуть

Если жёсткий дедлайн 4–5 месяцев вместо 7–8, вот приоритизация по ROI:

**Критично (не сокращать):** Фазы 1, 2, 3, 4 — это ядро.
**Важно:** Фаза 7 — без портфолио любое обучение обесценено.
**Можно урезать:** Фаза 5 (мультимодальность) — оставь только vision, убери voice.
**Можно оставить на потом:** Фаза 6 — JS и Airbyte учатся быстро по мере необходимости, если сильна Python-часть.

---

## Метрики прогресса

Раз в месяц проверяй себя:
- Сколько проектов задеплоил и опубликовал на GitHub?
- Сколько технических постов написал?
- Могу ли я за 30 минут объяснить на доске, как устроен RAG/агент из моего проекта?
- Получаю ли отклики от рекрутеров на обновлённое CV?

Если на 4-м месяце нет откликов — проблема в упаковке, а не в знаниях.
Cpt.Smollet
На сайте с 03.08.2024
Offline
17
#1407
Sly32 #:
Ты можешь использовать что угодно, а мне удобнее так.

У каждого свой вкус - сказал индус.

Sly32 #:
Весь HTML+JS  написан  ИИ

и CSS тоже. Надо и его упомянуть. 

Ну как-то не очень:
Несколько десятков однотипных   style="margin-right: 0.5rem; width: 1rem;" у бутстраповских иконок.



S3
На сайте с 29.03.2012
Offline
380
#1408
Devstory #:
Составил план обучения с Клаудом и занимаюсь по  , когда отпашу смену в такси.  И пилю свой пет проект. Через полгода думаю подаваться на ЗП 500-700 тыс руб в месяц , видел пару таких вакансий. 

Умереть не встать))) Ты хоть понимаешь багаж знаний для ML-инженера? Ты хоть Azure от AWS  - отличишь? А  с матанализом как?  Матрицу перемножишь сам? А разложение сделаешь?

А Pytorch -  уже весь изучил? Вектора?

Во ты сказочник, конечно...


Cpt.Smollet #:
Несколько десятков однотипных   style="margin-right: 0.5rem; width: 1rem;" у бутстраповских иконок.

А не все ли равно на этом этапе? Я для CSS  вообще не писал правила, все на откуп ЛЛМ. Это в принципе неважно и ни на что не влияет.

LA
На сайте с 05.09.2011
Offline
146
#1409
Sly32 #:
Это в принципе неважно и ни на что не влияет.
Влияет на токены и лимиты. Я понимаю, что когда дядя их оплачивает, пофиг. Но когда на свои кровные, то каждую строчку будешь проверять. Чтобы поменьше читал, поменьше правил, поменьше итерировал.  😐

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий