Искусственный интеллект как инженерная дисциплина: что я понял, внедряя AI в …

вчера Искусственный интеллект как инженерная дисциплина: что я понял, внедряя AI в реальный сектор, и почему у 85% команд ничего не получается Когда я начинал первые проекты с машинным обучением несколько лет назад, мне казалось, что главное — это качество модели, умение построить архитектуру, найти хорошую метрику, подобрать оптимизатор, вычислить правильное число эпох. Большинство Data Scientists на ранней стадии карьеры мыслят именно так: чем лучше модель, тем выше шанс успеха. Но за последние годы, работая CTO Insight AI и проводя внедрения в компаниях совершенно разного масштаба — от российских подразделений глобальной корпорации Hyosung до лабораторных подрядчиков, торговых сетей, сервисных компаний — я понял, что реальный ИИ живёт в другой логике. Модель — это не сердце системы. Модель — это самое маленькое из её звеньев. Настоящий AI-продукт — это дисциплина работы с данными, инженерная культура и способность встроить алгоритмическое решение в живой бизнес-процесс так, чтобы люди перестали замечать сам факт его существования. Я видел десятки проектов, которые проваливались. И видел те, которые приносили ощутимый эффект: ускоряли документооборот, улучшали прогнозирование, стабилизировали цепочки поставок, повышали качество клиентской поддержки. Разница между удачей и провалом оказывалась вовсе не в подборе модели, а в том, насколько компания готова мыслить как инженерная система. То, что в медиа часто называют “революцией нейросетей”, на практике оказалось совсем не революцией. Это — эволюция процессов, культуры и инженерного мышления. Почему AI перестал быть магией и стал обычной технологией Если посмотреть на то, что произошло в индустрии за последние два года, сразу становится ясно: ничего мистического в “взрывном успехе ИИ” нет. Прежде всего, резко упала стоимость вычислений. Модели, которые раньше требовали кластеров, сегодня работают на одном сервере средней мощности. Тогда как в 2019 году полноценный inference крупных моделей был уделом корпораций, то в 2024–2025 годах модели класса 7–13B спокойно запускаются локально, работают в FP8-квантовании, допускают LoRA-дообучение и демонстрируют качество, достаточное для 80% прикладных задач. Другой переломный момент — новая способность моделей работать с неструктурированной информацией: диалогами, документами, звонками, переписками, PDF, формами, фотографиями. Там, где классический ML требовал месяцев ETL-процессов, LLM справляется за секунды. Это создало новый класс решений, где AI работает не как инструмент предсказания, а как универсальный интерпретатор смысла. И наконец, архитектура AI-систем стала модульной. То, что раньше делалось как монолитная вертикаль — ingestion, фичевая инженерия, training pipeline, inference сервер, мониторинг, публикация — превратилось в набор взаимозаменяемых блоков. Я сам перестал строить “модели”. Я начал строить “системы вокруг моделей”. В Insight AI у нас уже давно есть внутренний принцип: модель — это всего лишь один исполнитель в большом процессе. Важно, как она взаимодействует с хранилищем, где она получает контекст, как она использует инструменты (функции), как её ответы проверяются, как они регулируются бизнес-правилами. Пока индустрия обсуждала “чудо LLM”, мы просто видели, что технология стала зрелой. Она перестала быть редкостью — и стала инфраструктурой. Что отличает работающие проекты от провальных: мой опыт CTO Несмотря на то, что ИИ стал доступным, подавляющее большинство проектов терпит неудачу. Gartner фиксирует, что до 85% AI-инициатив не достигают заявленных целей. Эти цифры звучат драматично, но они исключительно точны. Я видел это собственными глазами много раз: внешне перспективный проект проваливается не из-за модели, не из-за библиотеки, не из-за недостатка “интеллекта”, а из-за того, что компания не готова к инженерной природе AI. Причину №1 я называю “культурой данных”. Если данные хранятся фрагментированно, если исторические записи неполные, если события задвоены, если временные метки отсутствуют или формируются человеком вручную, если процессы не фиксируются, если документы не стандартизированы — модель работать не будет. Когда мы начинали проект с Hyosung, это было особенно заметно. Ни одна модель, даже самая совершенная, не могла компенсировать хаос в части категорий товара. Номинально данные были, но фактически они не отражали реальный поток событий. Прогнозы для ряда SKU были стабильными, но для других колебались настолько, что доверять им было невозможно. И именно это заставило нас сначала “лечить” не модель, а операционную дисциплину данных: разграничить категории, восстановить историю, нормализовать логическую структуру продаж. После этого качество прогноза выросло настолько, что модель стала не “механизмом предсказаний”, а частью полноценного цепочного управления запасами. Причина №2 — неверная постановка задачи. Многие компании приходят с фразой “нам нужен AI”. Но AI — это не задача, это инструмент. Задача — это решение, которое сейчас принимает человек: принять звонок, обработать документ, ответить клиенту, оценить заявку, сформировать прогноз, подобрать поставщика. Суть моей работы как CTO — разложить человеческое решение на этапы, выделить, где используется правило, где опыт, где поиск по памяти, где генерация текста, где интерпретация ситуации. И уже после этого становится ясно, чего от ИИ можно требовать. Там, где компании пытаются “автоматизировать всё”, ИИ даёт ноль. Там, где задача поставлена правильно, ИИ становится естественной частью процесса. Причина №3 — незрелая архитектура. Очень часто AI-проект выглядит так: есть модель, вокруг неё натянута простая API-обёртка, и дальше эта схема подаётся как “внедрение искусственного интеллекта”. Это ошибка. AI-продукт — это цепочка проверки данных, контекстного поиска, инструментальных вызовов, генерации, валидации, защиты от галлюцинаций, траекторий диалога, правильной логики эскалации, пост-обработки и мониторинга. Модель даёт лишь вероятность, а не решение. Моё направление как CTO — превращать эту вероятность в стабильную, инженерно надёжную систему. Документы: область, где инженерная культура решает всё Сразу оговорюсь: несмотря на популярность LLM, качественная автоматизация документооборота — одна из самых сложных задач, с которыми мне доводилось работать. Большинство людей думает, что документ -это текст. На самом деле документ — это структура, где каждый элемент связан с бизнес-правилами, юридическими ограничениями, формальными требованиями и контекстом объекта. У акта выполненных работ есть поля, у договора есть формулы, у заявки — параметры, у отчёта — логический порядок. Когда мы строили автоматизацию актов для подрядчика в сфере строительства, самым трудным были не шаблоны, а разбор контекста: какие работы выполнялись, на каком объекте, какой инженер был ответственным, к каким фотографиям относятся примечания, какие расхождения между фактом и заявкой нужно автоматически выделить. Приходилось строить трёхуровневую архитектуру обработки: сначала модель приводила документ в формализованное описание, затем другая модель устраняла неоднозначности, затем третья — генерировала итоговый акт в юридически корректной форме. Это не “один LLM”, это цепочка из нескольких взаимодействующих моделей, каждая из которых решает строго свою задачу. Именно в таких задачах я понял, что реальный ИИ — это не генерация текста, это восстановление структуры мира по фрагментам. Документ — это пазл, а LLM должен научиться видеть картину целиком. Клиентская поддержка и диалоговые системы: от ответов к пониманию намерений Работая над сложными диалоговыми системами — например, над техподдержкой для интернет-провайдера или над контекстной клиентской коммуникацией для сервисных компаний — я окончательно убедился: диалоговый AI не имеет ничего общего с чат-ботами прошлого поколения. Работающий AI — это не ответы, а способность удерживать и развивать контекст. Он считывает намерение пользователя, сопоставляет его с базой знаний, запрашивает недостающие данные, корректно решает, когда нужно подключить человека, и делает всё это без “обрыва разговора”. Когда Salesforce в своих отчётах пишет, что компании, внедряющие AI в продажи и сервис, увеличивают показатели на 17–20%, это отражает не магию технологий, а улучшение когнитивной обработки диалогов. В Insight AI мы выстраивали диалоговые системы, где LLM не просто формулировал ответ, а управлял состоянием разговора как конечным автоматом: переключался между режимами, запрашивал недостающие параметры, сверял данные с контекстом, корректировал ошибочные предположения. Это совсем не “бот”, это полноценная когнитивная система. И она требует куда большей инженерной строгости, чем может показаться извне. Куда идёт AI: взгляд CTO, который каждый день работает с реальными внедрениями Если попытаться сформулировать, куда движется индустрия, то я бы сказал так: ИИ перестал быть алгоритмом. Он стал архитектурой. Первый важный тренд — переход к корпоративным локальным моделям. Публичные LLM хороши, но реальная ценность появляется только тогда, когда модель знает отраслевые особенности, внутренние документы, типичные ошибки, принятый стиль общения и правила компании. В ближайшие два года мы увидим взрывной рост именно частных моделей, обученных на собственных данных организаций. Второй тренд — агентная парадигма. В 2024 году появилось понимание, что не один ИИ должен решать задачу, а несколько взаимодействующих агентов: один разбирает документ, другой оценивает риски, третий генерирует черновик решения, четвёртый проверяет его на ошибки. Это — переход от “LLM как ассистента” к “LLM как системе”. McKinsey отмечает, что более 60% компаний уже тестируют такие решения. Третий тренд — исчезновение ИИ как “отдельной функции”. Очень быстро мы придём к тому, что AI станет встроенным в CRM, ERP, бухгалтерию, сервисные системы, автоматизацию процессов. То, что сегодня называется “AI-проектом”, через несколько лет станет просто “функцией”. И четвёртый — изменение конкурентного поля. Исследования Salesforce показывают, что 91% малых компаний, внедривших ИИ, фиксируют рост доходов. Это говорит о том, что выигрывает тот, кто внедряет быстро, а не тот, кто больше. Скорость адаптации стала новым видом капитала. Главное, что я понял за годы внедрений ИИ перестал быть темой для обсуждений. Он стал производственным инструментом, инженерной дисциплиной и способом повысить качество решений. Да, модели важны. Но побеждает не та компания, у которой “самый сильный ИИ”. Побеждает та, у которой правильно организованы данные, процессы и архитектура. Я пришёл к этому выводу постепенно, наблюдая за десятками проектов. И теперь знаю точно: в 2025 году ключевая компетенция CTO — не умение обучать модели, а умение строить системы вокруг них. Это и есть искусственный интеллект в реальном мире. Не набор моделей. А инженерный, структурный способ расширять возможности бизнеса. 7 Source: https://vc.ru/ai/2618283-iskusstvennyj-intellekt-v-inzhenerii-sekrety-uspeshnogo-vnedreniya-ai