Devstory

Рейтинг
34
Регистрация
06.01.2022
Sly32 #:

Умереть не встать))) Ты хоть понимаешь багаж знаний для ML-инженера? Ты хоть Azure от AWS  - отличишь? А  с матанализом как?  Матрицу перемножишь сам? А разложение сделаешь?

А Pytorch -  уже весь изучил? Вектора?

Во ты сказочник, конечно...


Со всем этим я работал , более того сам нанимал ml  инженеров и преподавал в универе курс по статистике. Глубокой экспертизы уже нет, но пойду аналитиком для начала или менеджером. Ну и внедренец агентов это не совсем матеиатик, скиллы нужные я перечислил выше. 

Ponyk #:

Если ещë тëртый сыр то вообще супер еда. Вкусная и полезная. 

Я делаю полезный холостяцкий  салат, которым наедаешься  на весь день. Огурцы, помидоры, яйца, зелёные листья салата, редиска, тунец из банки, оливки . Можно ещё перца и лука по вкусу или горошек. Приправы и оливычем  залить все этим или с греческим йогуртом.  

Работать ai архитектором и внедрять агенты сейчас единственная нормальная тема в айти чтоб зарабатывать хорошие деньги. Составил план обучения с Клаудом и занимаюсь по  , когда отпашу смену в такси.  И пилю свой пет проект. Через полгода думаю подаваться на ЗП 500-700 тыс руб в месяц , видел пару таких вакансий. 
Вот план 
# План обучения: ML Engineer → Senior AI Multiagent Systems Engineer

**Исходная точка:** ML Engineer / Data Scientist без опыта LLM-агентов
**Темп:** 15–20 часов/неделю
**Общая длительность:** ~32 недели (7–8 месяцев)
**Цель:** выйти на уровень, достаточный для сопоставимых вакансий Senior AI Engineer

---

## Честная оценка вакансии

Прежде чем начать — важный контекст:

- Вакансия требует **10+ лет общего опыта** и **8+ лет production ML**. Если у тебя меньше — конкретно эта позиция вряд ли станет целью на ближайший год, но рынок AI Engineer огромный и похожих ролей с более мягкими фильтрами хватает.
- Часть требований очень узкие (Airbyte 1+ год, JavaScript 3+ лет production). Это часто "wish list" — реальные работодатели берут, если основная экспертиза сильная.
- **Главный рычаг роста для тебя — это не курсы, а портфолио**. Работодатели на Senior оценивают по проектам на GitHub, техблогу и способности рассуждать о трейд-оффах.

План ниже рассчитан на то, чтобы параллельно с обучением ты начал откликаться на Mid/Senior AI Engineer позиции уже с 4-го месяца — реальный опыт ускоряет рост в разы.

---

## Фаза 0: Калибровка (неделя 1, ~15 часов)

Цель — убрать пробелы в базовом ландшафте и настроить инфраструктуру.

**Что изучить:**
- Ландшафт современных LLM: OpenAI, Anthropic, Google, open-source (Llama, Qwen, DeepSeek, Mistral)
- Разница между моделями: context length, tool use, structured output, reasoning
- Pricing и latency трейд-оффы

**Настроить:**
- Аккаунты с API-доступом: OpenAI, Anthropic, Google AI Studio (есть бесплатный тир)
- Claude Code или Cursor как ежедневный инструмент разработки
- GitHub-репозиторий "ai-engineer-journey" — сюда будешь коммитить все проекты
- Блог на Habr / Medium / dev.to для конспектов

**Ресурсы:**
- Anthropic Docs → Overview
- OpenAI Cookbook
- Simon Willison's blog (лучший источник по практическим LLM-новостям)

---

## Фаза 1: LLM Foundations (недели 2–5, ~70 часов)

**Темы:**
- Prompt engineering: few-shot, chain-of-thought, XML-теги, системные промпты
- Tool use / function calling в OpenAI и Anthropic API
- Structured outputs: JSON schema, response formats
- Streaming, кэширование промптов (prompt caching у Anthropic)
- Безопасность: prompt injection, jailbreaks, базовые guardrails
- Context engineering: как правильно собирать контекст

**Практика (проект 1):**
Telegram или Discord бот на Python с Anthropic API. Требования:
- Минимум 3 tool'а (поиск в вебе, работа с календарём, работа с файлами)
- Структурированные ответы через JSON schema
- Логирование всех LLM-вызовов
- Базовый rate limiting

**Ресурсы:**
- Anthropic Prompt Engineering Guide
- OpenAI Cookbook (function calling)
- "Prompt Engineering Guide" от DAIR.AI
- Курс Anthropic Academy (бесплатный)

---

## Фаза 2: RAG-системы (недели 6–10, ~90 часов)

**Темы:**
- Embeddings: OpenAI text-embedding-3, Cohere, BGE, sentence-transformers
- Vector DB: pgvector (начни с этого), Qdrant, Weaviate, Pinecone
- Chunking стратегии: fixed, recursive, semantic, document-aware
- LangChain vs LlamaIndex — плюсы и минусы каждого
- Vertex AI RAG Engine (раз указан в вакансии)
- Продвинутые техники: hybrid search (BM25 + vector), reranking (Cohere Rerank, Jina), HyDE, parent-document retrievers, query rewriting
- Оценка качества RAG: Ragas, метрики retrieval (Recall@k, MRR) и генерации (faithfulness, answer relevance)

**Практика (проект 2):**
RAG поверх крупной технической документации (например, Kubernetes или Django docs).
- pgvector + reranker
- Hybrid search
- Eval-набор минимум из 50 вопросов с эталонными ответами
- Сравнение минимум 3 стратегий чанкинга
- Веб-UI (можно простой Streamlit)

**Ресурсы:**
- LlamaIndex docs (их учебные материалы лучше, чем у LangChain)
- "Retrieval-Augmented Generation for Large Language Models: A Survey" (arXiv)
- Блог Jason Liu (instructor, автор) по RAG
- Ragas docs

---

## Фаза 3: Agents и Multi-agent системы (недели 11–16, ~120 часов)

Это ядро вакансии — сюда вкладывай больше всего времени.

**Теория:**
- Парадигмы агентов: ReAct, Plan-and-Execute, Reflexion
- Multi-agent паттерны: supervisor, swarm, hierarchical, network
- Memory: short-term (conversation), long-term (vector), episodic, semantic
- Planning: task decomposition, replanning

**Фреймворки (изучить минимум три из списка в вакансии):**
- **Claude Agent SDK** (Anthropic) — начни с него, самый свежий и хорошо спроектирован
- **OpenAI Agents SDK**
- **Google ADK** (Agent Development Kit)
- **LangGraph** — для кастомных графов агентов, де-факто стандарт для сложных систем
- Memory-библиотеки: Mem0, Zep, LangMem

**Практика (проект 3 — флагман портфолио):**
Multi-agent research-ассистент. Требования:
- Минимум 3 агента с разными ролями (researcher, writer, critic)
- Внешние инструменты: веб-поиск, парсинг PDF, работа с таблицами
- Long-term memory через vector DB
- Human-in-the-loop для подтверждения важных действий
- Observability через LangSmith или Langfuse
- Полноценный README с архитектурной диаграммой

**Ресурсы:**
- Anthropic: "Building effective agents" (статья-манифест, читать обязательно)
- LangGraph tutorials
- Huyen Chip "AI Engineering" (книга)
- Блог Lilian Weng "LLM Powered Autonomous Agents"

---

## Фаза 4: Evaluation и Production-качество (недели 17–20, ~80 часов)

Навык, по которому отсеивают больше всего кандидатов.

**Темы:**
- Evaluation frameworks: Promptfoo, OpenAI Evals, Anthropic Evaluation Tools
- Custom eval pipelines на Python
- LLM-as-a-judge: когда работает, когда нет
- Ragas для RAG, AgentBench для агентов
- Observability: LangSmith, Langfuse, Arize Phoenix
- Guardrails AI, NeMo Guardrails
- Hallucination detection: self-consistency, SelfCheckGPT, verification агенты
- A/B тесты LLM-фич в проде

**Практика (проект 4):**
Полный eval-pipeline для проекта из Фазы 3:
- 100+ тестовых кейсов с разбиением по категориям
- Автоматические eval'ы в CI (GitHub Actions)
- Дашборд с метриками регрессии
- Guardrails на вход и выход агентов

**Ресурсы:**
- Eugene Yan "Evaluating LLMs" (блог)
- Hamel Husain блог (лучший по практике evals)
- Promptfoo docs
- "Your AI Product Needs Evals" — Hamel Husain

---

## Фаза 5: Мультимодальность и Voice (недели 21–24, ~80 часов)

**Темы:**
- Vision: GPT-4o, Claude Vision, Gemini — понимание скриншотов и UI
- Screenshot agents (browser-use, Claude Computer Use)
- Voice input: Whisper (OpenAI, Groq), Deepgram
- TTS: ElevenLabs, OpenAI TTS, Cartesia
- Real-time voice agents: LiveKit Agents, Pipecat, OpenAI Realtime API
- Multimodal RAG (поверх PDF со схемами и таблицами)

**Практика (проект 5):**
Голосовой ассистент, который:
- Слушает голосовой запрос
- Видит скриншот рабочего стола пользователя
- Выполняет действие через tool use
- Отвечает голосом

**Ресурсы:**
- LiveKit Agents docs
- OpenAI Realtime API
- Anthropic Computer Use Quickstart

---

## Фаза 6: JS/TS и интеграционный стек (недели 25–28, ~80 часов)

Закрываем пробелы, указанные в вакансии.

**Темы:**
- TypeScript за неделю (если не знаешь): Total TypeScript курс Matt Pocock
- Vercel AI SDK — стандарт для AI-фич в Next.js
- LangChain.js, LlamaIndex.TS
- **Airbyte**: base concepts, кастомные коннекторы, CDC, Airbyte Cloud vs OSS
- Workflow engines: Temporal (для надёжных long-running агентов), n8n (low-code RPA)
- Webhooks, API design для агентных систем

**Практика (проект 6):**
Next.js веб-интерфейс для агента из Фазы 3:
- Streaming ответов
- Мультисессии с персистентной памятью
- Airbyte пайплайн, который тянет данные в vector DB

**Ресурсы:**
- Vercel AI SDK docs
- Airbyte Academy
- Temporal учебник "Hello world in Python"

---

## Фаза 7: Portfolio, публикации, поиск работы (недели 29–32)

К этому моменту у тебя 5-6 серьёзных проектов. Теперь задача — сделать их видимыми.

**Что сделать:**
- Выбрать 3 сильнейших проекта и довести README, тесты, деплой до идеала
- Написать 4–5 технических постов (по одному на проект): не туториалы, а разборы трейд-оффов и ошибок
- Минимум 1 open-source contribution в LangChain / LlamaIndex / Promptfoo (исправление бага или документация)
- Обновить CV: переписать опыт через призму AI Engineering (ML Engineer опыт → "production ML systems" в CV)
- LinkedIn с постами раз в неделю
- Подготовиться к interview:
  - System design для AI (как задизайнить RAG для 10M документов, как сделать агента надёжным)
  - Coding: обычный алгоритмический скрининг никто не отменял
  - Домашки: готовься сделать тестовое за выходные
- Mock-интервью (Interviewing.io, Pramp, друзья из индустрии)

**Где искать позиции:**
- LinkedIn (ставь фильтр AI Engineer, LLM Engineer, Applied AI)
- hh.ru (специфично для рынка СНГ)
- Habr Career
- AI-специализированные: Cohere job board, ai-jobs.net, remoteok.com

---

## Параллельные привычки на весь период

- **Чтение каждую неделю:** Anthropic research, OpenAI blog, статьи на arXiv про агентов (поиск по "LLM agents", "tool use", "multi-agent")
- **Claude Code / Cursor в ежедневной работе** — без этого Senior AI Engineer в 2026 просто нерелевантен
- **Подписки на Twitter/X:** @swyx, @jxnlco (Jason Liu), @HamelHusain, @lilianweng, @karpathy, @simonw
- **Подкасты:** Latent Space, No Priors, MLOps Community
- **Discord-сообщества:** LlamaIndex, LangChain, MLOps Community

---

## Если нужно ускориться — что выкинуть

Если жёсткий дедлайн 4–5 месяцев вместо 7–8, вот приоритизация по ROI:

**Критично (не сокращать):** Фазы 1, 2, 3, 4 — это ядро.
**Важно:** Фаза 7 — без портфолио любое обучение обесценено.
**Можно урезать:** Фаза 5 (мультимодальность) — оставь только vision, убери voice.
**Можно оставить на потом:** Фаза 6 — JS и Airbyte учатся быстро по мере необходимости, если сильна Python-часть.

---

## Метрики прогресса

Раз в месяц проверяй себя:
- Сколько проектов задеплоил и опубликовал на GitHub?
- Сколько технических постов написал?
- Могу ли я за 30 минут объяснить на доске, как устроен RAG/агент из моего проекта?
- Получаю ли отклики от рекрутеров на обновлённое CV?

Если на 4-м месяце нет откликов — проблема в упаковке, а не в знаниях.
В Яндексе внедрили ИИ так, что теперь невозможно получить ответ на свой вопрос. Отвечают боты и совершенно на другой вопрос. Придется бумажные письма им писать так как все варианты использовал. 
pavlkonst #:
Ну так увольняют кого? Операторов первой линии поддержки и дешевых рерайтеров - бизнес просто срезает косты на самой низкоквалифицированной рабочей силе. Никто в здравом уме не доверит жпт продакшен базу данных без проверки сеньором. Бьются за места как раз те, кто годами не хотел качать скиллы выше уровня "копипаст из гугла"

Программистов увольняют сейчас больше всех ,  в том числе сеньоров

alaev #:

Сёма Альтман точно не меценат.

Так сколько людей и каких профессий чат жопити лишил работы?

Ссылку на исследования и статистику кто-то даст?

Никто не даст никакой статистики. . В причинах увольнениях не пишут , что ИИ лишил работы. Увольняют просто по прихоти коммерсанта. 

А где здесь противоречие? 

Да , идею было сложно придумать , копирую идею с запада по сути.. зайдет ли у нас пока не знаю, надо пробовать 

master32 #:
кстати, как там твой ИИ, уже может сделать онлайн магазин или еще нет?

Конечно может, но домохозяйка не справиться, если нужен не шаблонный продукт.   Я делаю сейчас мобильное приложение с намного более сложной логикой и альтернатив которому нет на ру рынке . За пару вечеров навайбкодил рабочий  прототип. Далее конечно пошли сложности о которых выше  тут писали уже . Но связываю это с недостаточно подробными промтами так как мне лень все очень подробно прописывать. С горем пополам за пару недель плотной  работы  финализирую mvp сейчас. 

master32 #:
 наоборот надо нанимать людей, теперь 10 человек смогут делать 10 продуктов, 10ти кратный рост жи, а работатели получается глупые, сокращают людей и отказываются от прибылей)

Даже до ИИ проблема была больше не в разработке продукта, а в идеях и продажах. Сейчас тем более. Успешные продукты можно по пальцам пересчитать и скорость тут не нужна, а нужна востребованная фича в продукте. Но сейчас уже почти все придумано. 

ellienoise #:
Акционерам нужны дивиденды в текущем финансовом году. Если для поддержания этих цифр нужно выставить на улицу каждого десятого, они сделают это не моргнув глазом, а проблемы безработицы пускай расхлебывает государство

Не будет никаких дивидендов , когда схлопываются все бизнесы и потребление 

Всего: 1499