Безопасность GenAI и ИИ в бизнесе: рынок, риски и опыт WMT AI — Anti-Malware.ru

Выводы Введение Чтобы развеять естественные сомнения в эффективности ИИ, нужно накопить опыт успешных внедрений нейросетевых проектов, провести оценку эффективности получаемых результатов, оценить риски. Эта идея легла в основу организации подкаст-конференций, проводимых сейчас компанией WMT AI. Уже более 3 лет она занимается разработкой ИИ-проектов для внедрения в бизнес-процессы. Как разработчикам им стало очевидно, что развитие рынка ИИ-разработки не может опираться только на хайп — оно должно подкрепляться также реальными историями. Шаг, сделанный WMT AI в сторону развития медиа-активности, можно рассматривать как популяризацию деятельности и демонстрацию реального опыта. Но очевидно, что тема внедрения искусственного интеллекта шире и глубже, чем кажется поначалу. Многие уже почувствовали, что за счёт внедрения ИИ-агентов можно не только ускорить бизнес-процессы, но и поднять предпринимательство на новый уровень. Для этого нужно пересматривать основы. Один из шагов — безопасность, которая является частью фундамента современных бизнес-систем. Мы побывали на одной из стратегических сессий, проведённых компанией WMT AI в Москве в кластере «Образовательный» МГУ. Сессия получила необычное название — «ИИчница: Будущее уже наступило». На мероприятии собрались будущие разработчики и специалисты по ИИ — студенты старших курсов. Среди участников также оказались предприниматели, исследователи и представители российского бизнеса. В начале мероприятия выступил основатель WMT AI Игорь Никитин. Он анонсировал создание закрытого бизнес-сообщества «И-Клуб WMT AI». К участию в нём приглашаются представители бизнеса и разработчики систем ИИ. Цель клуба — обмен опытом, полученным при внедрении ИИ-разработок. Со слов Игоря Никитина, добиться эффективного и массового внедрения ИИ будет проще, если существует площадка для обсуждения достижений и ошибок. Она поможет развеять сомнения относительно внедрения ИИ. Уже сейчас очевидно, что речь не только о бизнес-процессе, но и о дополнительных вопросах, например, этике и безопасности. Рисунок 1. Анонс закрытого бизнес-сообщества «И-Клуб WMT AI» в МГУ Рынок бизнес-систем на базе ИИ Что можно сказать сейчас о российском рынке ИИ-разработки? Чем он отличается от мирового? Первое, что приходит на ум — довольно короткий список ИИ-разработчиков. На виду в основном только крупные компании: Сбер, МТС, Яндекс и др. Небольших ИИ-разработчиков, похоже, никто не считает. Выглядит парадоксально. С одной стороны, практически каждая компания рапортует о применении ИИ, при этом практически нет реальных оценок эффективности внедрений по сравнению с традиционным ПО. Значимые оценки появились только для финтеха, HR-служб и CRM (работа с клиентами). Чаще всего эти проекты связаны с применением ИИ-чатботов. Сами заказчики говорят, что достигли существенного роста эффективности, но подтверждений своей оценки чаще всего не предоставляют. Приятным исключением является отчёт компании Naumen, которая провела исследование эффективности применения ИИ-чатботов в российских банках. Для этого была разработана собственная методика, основанная на принципах независимого исследования. Ценность таких отчётов значительно выше пресс-релизов об ИИ-внедрениях. Для сравнения посмотрим, что происходит на Западе, где рынок независимых аналитических исследований развит лучше. По итогам первой половины 2025 года многие аналитические агентства отметили: ИИ перешёл критический рубеж. Как отмечают исследователи, если прежде от организаций можно было слышать чаще всего вопрос: «Нужно ли нам это?», то теперь задают уже другие вопросы: «Насколько быстро мы можем масштабировать пилотные решения на всю компанию?», «Насколько повышается эффективность и производительность бизнес-процессов после внедрения ИИ?», «Насколько безопасны ИИ-решения с учётом требований регулятора и ИБ-рисков?». Рисунок 2. Области прикладного применения ИИ (McKinsey Global Survey, 2025) Интересны оценки, изложенные в отчёте AI Quarterly Pulse, выпущенном компанией KPMG (международная сеть аудиторских и консалтинговых фирм) по результатам опроса клиентов за 3 квартал 2025 года. Отмечается, что количество внедрений ИИ-агентов выросло почти в 4 раза. Уже 42 % опрошенных организаций внедрили по несколько ИИ-агентов (для сравнения — в начале 2025 года их было 11 %). KPMG отмечают сдвиг руководства компаний к внедрению ИИ. 99 % руководителей заявляют сейчас, что «ожидают получить положительный эффект», 52 % оценивают итоговый эффект как «очень позитивный» (VERY positive). В то же время интерес к внедрению ИИ на западном рынке проявляют в первую очередь крупные компании (это видно по размеру инвестиций в ИИ: у крупных компаний он всегда выше, чем у SMB, то есть малого и среднего бизнеса). Организации среднего и начального уровня сохраняют выжидательную позицию. Более того, размер их инвестиций в ИИ даже немного снизился, но делать выводы можно только после того, как компании начнут публиковать итоговые финансовые отчётности за 2025 год. Рисунок 3. Доля компаний с намеченным размером инвестиций в ИИ (KPMG, 2025) Развитие заказной ИИ-разработки в России Но вернёмся к мероприятию WMT AI. По оценкам участников, на долю заказной ИИ-разработки в России сейчас приходится около 12 % от общего объёма рынка ИИ. Значительная часть ИИ-разработок сконцентрирована внутри крупных вендоров, которые создают AI-решения для собственных нужд и предоставления их заказчикам в виде услуг. Как отметил Николай Молчанов, руководитель отдела заказной и проектной разработки WMT Group, уже практически половина новых проектов, выполненных его компанией в 2025 году, предусматривает наличие ИИ-элементов. Популярность внедрения ИИ стремительно растёт среди российских заказчиков. Рисунок 4. Преимущества использования ИИ (McKinsey Global Survey, 2025) Является ли это свидетельством того, что российские компании перешли от стадии пилотных внедрений к активному спросу на ИИ или это ответная реакция на спонсирование таких проектов? Николай Молчанов отметил, что нынешние заказчики специально оговаривают в своих проектах необходимость применения ИИ. Но если заказчик не готов сформулировать заранее метрики для оценки полезности применения ИИ, то он может легко пойти по пути «сделаем, а потом посмотрим, что получится». Это характерно для этапа хайпа. Качественный перелом произойдёт в тот момент, когда заказчики осознают важность получения объективной оценки ИИ-разработки. Возможно, подобные оценки будут отличаться для разных направлений, например on-premise, облачной инсталляции. Рисунок 5. Снижение затрат при внедрении ИИ в ПО в разных областях (McKinsey Global Survey, 2025) GenAI и безопасность Почти все разделяют мнение, что приход GenAI в сферу кибербезопасности неизбежен. Но с учётом специфики отрасли есть понимание: ИИ не только несёт потенциал для развития средств ИБ, но и создаёт значительные риски. С помощью ИИ уже можно генерировать сложные фишинговые атаки , даже не имея подготовки и знаний. Атаки не обязательно успешны, но с развитием ИИ их результативность может качественно изменить ситуацию в отрасли, если не предпринимать адекватных мер противодействия. Благодаря GenAI автоматизация эксплуатации уязвимостей и распространения высококачественных фейков скоро будет поставлена на поток. Но есть распространённое мнение, что GenAI позволяет реализовать экспертизу на уровне «джунов», поэтому риски роста ИИ-активности в области ИБ пока невелики. Какую надо строить стратегию для смягчения последствий от внедрения GenAI в кибербезопасность? Называют следующие шаги: внести необходимые изменения в протоколы безопасности; выстроить чувствительный к ИИ мониторинг, способный выявлять враждебную активность, создаваемую при помощи GenAI; разработать передовые технологии защиты. Для реализации этих мер потребуются изменения в профильном ИБ-образовании. Одна из мер противостояния лавинообразному нарастанию риска ИИ-кибератак — добавление в приложения вспомогательных инструментов, способных отличать естественные команды управления, генерируемые человеком, от атакующих действий ИИ. Такие элементы позволяют собирать метрики, с помощью которых вычисляются вредоносные ИИ-кибератаки. Но пока таких элементов в разработках нет. Характерна идущая сейчас полемика о необходимости маркировки изображений и видео, генерируемых GenAI. После волны дипфейков её отсутствие вызывает много вопросов, ведь маркировка кода применялась ещё на заре компьютерных вычислений. Почему с внедрением ИИ забыли о безопасности? Рисунок 6. Риски от применения ИИ, разбитые на 2 категории (McKinsey Global Survey, 2025) Российские разработки на фоне новых рисков Что думают российские разработчики о рисках при использовании ИИ в своих программах? Мы попросили Николая Молчанова ответить на эти вопросы. Насколько безопасно применение иностранных LLM-моделей? Безопасность применения иностранных LLM до сих пор вызывает немало вопросов. Они возникают прежде всего из-за требований российского законодательства, обязывающего осуществлять обработку персональных данных на территории России. Поэтому российский рынок движется в сторону формата on-premise с развёртыванием приложений в закрытом контуре. Реализация таких решений требует соблюдения граничного контроля для безопасности. Необходимо проверять трафик, проходящий через периметр, незакрытыми остаются риски выявления закладок в алгоритмах. Николай Молчанов отметил: «Я отношусь к использованию иностранных Open Source LLM спокойней, чем к применению закрытого ПО и стандартов, которые долгое время были широко распространены в нашей стране. В их работе действительно были непонятны многие детали, в том числе — как эти системы функционировали изнутри. Но LLM выстроены иначе. Априори они являются «чёрным ящиком» для любых пользователей, не только российских. Более того, как генерируется конкретный ответ ИИ-системы, не всегда понятно даже их разработчикам. При внедрении ИИ-систем мы учитываем риски и применяем дополнительные программные средства контроля, которые предотвращают угрозы появления ошибок в выдаваемых ими результатах. Этого арсенала достаточно для безопасности». Рисунок 7. Возможные области применения GenAI в кибербезопасности (R.Islam. Generative AI, Cybersecurity, and Ethics, 2025) Способы контроля применения ИИ Эффективный контроль применения AI должен распространяться на взаимодействие с аппаратной и программной инфраструктурой, а также затрагивать защиту данных. Организациям потребуется применять надёжные механизмы аутентификации, авторизации и мониторинга для предотвращения несанкционированного доступа и внесения изменений в LLM-модели. Но безопасность применения ИИ не ограничивается только этим. Помимо защиты доступа, требуется также обеспечить защиту периметра самой LLM-модели. Для этого окажутся полезны различные методы: шифрование файлов ИИ-модели в состоянии покоя; обфускация кода во время исполнения (преднамеренное усложнение кода программы, чтобы затруднить его анализ, понимание алгоритмов работы и модификацию); применение защиты памяти (Trusted Execution Environments, TEE) и пр. Эти и другие методы могут снизить риск несанкционированного доступа или кражи данных из ИИ-модели. Более подробно о возникающих рисках и рекомендациях по предотвращению кражи данных при эксплуатации ИИ-моделей можно посмотреть, например, в руководстве OWASP AI Security . Среди российских источников мы, к сожалению, пока не смогли найти аналогичных рекомендаций. Если говорить о российских ИИ-проектах, то Николай Молчанов отметил, что любой проект WMT AI предусматривает подготовку для заказчика карты рисков, возникающих из-за применения ИИ. «Как показывает практика, эта карта рисков постепенно становится всё более обширной». Фреймворки безопасности для применения GenAI С точки зрения ИБ, применение GenAI требует добавления сложного фильтра в контур выдачи его контента для анализа потока передаваемых данных. Обучение на таких исторических данных может научить различать закономерности в работе бизнес-систем. Это позволит отделять нормальное поведение от вредоносной активности. Очевидно, что по мере нарастания ИИ-агентов в бизнес-системах, поддержку этих однотипных задач лучше выделить в отдельный фреймворк для управления ИИ. На него будут возложены различные функции, которые будут параллельно выполняться отдельными ИИ-приложениями: подготовка отчётности, контроль соответствия регуляторным требованиям, реализаций гарантий доверия, обеспечение безопасного управления. На основе таких фреймворков уже подготовлены наборы следующих правил: Source: https://www.anti-malware.ru/analytics/Technology_Analysis/Applied-AI-application