Копировать ссылку Фото Александра Манзюка / ТАСС Банк России решил привлечь экспертов к определению подходов к ответственности при использовании искусственного интеллекта на финансовом рынке. Для этой цели при ЦБ создана рабочая группа, узнал Forbes. Среди вопросов, которые начали рассматривать ее участники — достаточность существующих инструментов защиты потерпевшей стороны, которой причинен ущерб посредством использования ИИ, а также возможные препятствия для привлечения к ответственности за ущерб разработчиков модели ИИ. При этом если бизнес настаивает на необходимости саморегулирования, то юристы убеждены — нужна адаптация законодательства Под вашу ответственность Одиннадцатого ноября прошло заседание рабочей группы при Центробанке, на которой обсуждалась целесообразность регулирования ИИ на финансовом рынке. Об этом рассказал источник Forbes, знакомый с ситуацией. В повестку этого заседания было включено пять вопросов, следует из материала, с которым ознакомился Forbes: Необходимо ли в настоящее время регулирование использования ИИ на финансовом рынке? Если да, то какие изменения следует внести в первую очередь? Являются ли действующие виды и механизм юридической ответственности достаточными инструментами защиты потерпевшей стороны (стороны, которой причинен ущерб посредством использования ИИ)? Требуется ли введение новых составов правонарушений для привлечения к юридической ответственности за ущерб, причиненный с использованием ИИ? Если да, то каких? Должна ли юридическая ответственность распределяться между компанией, использующей ИИ, разработчиком ИИ и иными лицами, участвующими в разработке ИИ? Существуют ли препятствия для привлечения разработчиков ИИ и иных лиц, участвовавших в разработке модели ИИ, к ответственности за причиненный с использованием ИИ ущерб? Если да, то какие? Начало обсуждения вопросов регулирования ИИ на финансовом рынке связано с тем, что у ЦБ есть ряд инициатив, касающихся ИИ, полагает собеседник Forbes. В ЦБ подтвердили факт создания новой рабочей группы, которая займется вопросами ответственности при использовании ИИ. «Банк России последовательно изучает применение ИИ на финансовом рынке России, а также исследует международную практику и подходы. Вопросы ответственности применения ИИ изучаются наравне с другими, — сообщили в пресс-службе ЦБ. — Сейчас при экспертном совете Банка России по защите прав розничных инвесторов формируется рабочая группа по вопросам определения подходов к ответственности при использовании ИИ на финансовом рынке. В нее приглашены представители финансовых организаций, академических кругов и технологических компаний-разработчиков соответствующих решений. Установочное совещание прошло 11 ноября 2025 года». Материал по теме В вопросах регулирования использования ИИ на финансовом рынке Банк России придерживается риск-ориентированного и технологически нейтрального подхода, отметили также там. «Мы считаем, что российское законодательство уже учитывает большинство рисков ИИ и предусматривает адекватные инструменты защиты потерпевших при причинении им вреда при использовании ИИ. К новому регулированию в сфере ИИ следует подходить осторожно, чтобы не затормозить развитие технологии. В этом наш подход совпадает с мировыми регуляторными трендами», — заявили Forbes в ЦБ, добавив, что Банк России «видит перспективы в мягком регулировании». «Летом этого года мы опубликовали Кодекс этики в сфере разработки и применения ИИ на финансовом рынке. В Кодексе мы указали, в частности, на важность уведомления клиентов о применении ИИ и наличия у них возможности запросить пересмотр решения, принятого с применением ИИ. Мы планируем и дальше развивать Кодекс, в том числе через формирование лучших практик», — сообщили в ЦБ, отметив, что подробная информация о планах по развитию Кодекса содержится в докладе для общественных консультаций ( опубликован 20 ноября). «Что касается ответственности, российское законодательство уже определяет ее параметры за причинение вреда, которые распространяются и на использование ИИ. Так, финансовая организация будет нести ответственность перед клиентом при нарушении договора или установленной законом обязанности независимо от того, применялся ИИ или нет, — пояснили Forbes в Центробанке. — Разработчики моделей ИИ тоже могут быть привлечены к ответственности за причинение вреда по действующему законодательству. Потерпевший может предъявить требования как финансовой организации — стороне договора, так и разработчику. Отсутствие договора между потерпевшим и разработчиком не исключает ответственности за нанесенный вред». Материал по теме В июне стало известно, что Минцифры разработало поправки в УК, которые вводят уголовную ответственность за преступления, совершенные с использованием искусственного интеллекта. Представитель Минцифры не стал комментировать тему ответственности за использование ИИ на финансовом рынке, переадресовав вопросы Forbes в ЦБ и в Минфин. В Минфине и Минэкономики на запросы Forbes не ответили. Сами с усами Действующего регулирования в целом достаточно, считают участники рынка, призывая опираться на саморегулирование отрасли. «Регулирование ИИ в финансовой сфере должно быть взвешенным. Жесткие требования сейчас могут замедлить развитие, поэтому важно опираться на оценку реальных рисков и не создавать лишних барьеров», — говорит представитель Альянса ИИ, объединяющего 17 компаний, включая «Яндекс», «Сбер», «Ростелеком», МТС, VK. По его словам, отрасль уже вырабатывает механизмы саморегулирования: «Внутри Альянса формируются стандарты, кодексы и практики, которые делают использование ИИ прозрачным и безопасным». Кроме того, отметил представитель организации, компании Альянса ИИ участвовали в создании Кодекса этики в сфере разработки и применения ИИ на финансовом рынке. «Нет необходимости вводить новые составы правонарушений специально под ИИ. Ключевой вопрос — корректное применение существующих норм и качественная документация процессов, чтобы было понятно, где произошла ошибка. Ответственность должна распределяться между разработчиком, поставщиком и пользователем ИИ, исходя из их роли. Алгоритм здесь не субъект, а инструмент, и за последствия отвечают люди и организации, — уверен представитель Альянса ИИ. — Этику алгоритмами не регулируют. Здесь важна прозрачность, проверяемые процедуры и ответственность тех, кто принимает решения. Главная проблема в привлечении к ответственности — недостаток валидации и документирования моделей. Эту задачу как раз закрывают отраслевые стандарты и культура работы с ИИ, которые формируются внутри Альянса». Материал по теме ИИ не является стороной гражданско-правовых отношений, обращает внимание источник в крупной IT-компании. «Если одна сторона причинила ущерб другой из-за неправильного использования ИИ, то первая несет гражданско-правовую ответственность независимо от того, использовала она ИИ или нет», — отметил собеседник Forbes. По его словам, текущих составов преступления в Уголовном кодексе также вполне достаточно. «Неважно, использовал мошенник ИИ или просто притворялся сотрудником ФСБ или ЦБ, — добавил он. — Вся юридическая составляющая ответственности лежит и должна лежать на пользователе, который использовал ИИ». Аналогичный ответ он дает и на вопрос о возможном привлечении к ответственности разработчика алгоритмов. «Все решения в конечном итоге принимают лица или организации, использующие ИИ, они и несут ответственность за последствия использования ИИ», — заключает собеседник Forbes. По словам старшего управляющего директора Московской биржи по розничному бизнесу и маркетплейсу «Финуслуги» Игоря Алутина, в зоне ответственности Банка России лежит сертификация ИИ-систем и алгоритмов участников торговли. «Московская биржа, в свою очередь, обеспечивает прозрачность торгов и предотвращает манипулирование, следит за корректностью торговых практик и за эффектами применения ИИ на торгах. Для этого мы внедряем системы, которые выявляют аномалии и потенциальные риски, связанные с ИИ. Результаты мониторинга мы передаем ЦБ», — сообщил он Forbes. Мосбиржа, по его словам, также может определять стандарты, например, требования к логированию, отчетности и тестированию торговых стратегий. «При этом мы не вмешиваемся в архитектуру систем участников и не проверяем коды», — добавил он. «Рынку нужны правила игры, но важно, чтобы они были гибкими и позволяли экспериментировать. Иначе нас ждет технологическое отставание, — рассуждает Алутин. — Оптимальная модель — комбинация: Банк России задает рамки и контролирует риски, а рынок определяет стандарты саморегулирования. Тогда не будет лишних барьеров для инноваций в области ИИ-агентов». Представитель Wildberries от комментариев отказался. Представитель ассоциации «Финтех», объединяющей 44 компании финансового и IT-сектора, порекомендовал Forbes обратиться в ЦБ. Forbes также направил запросы в пресс-службы «Сбера», ВТБ, Т-Банка, Альфа-банка, «Яндекса», Ozon. Нужна адаптация Впрочем, по словам опрошенных Forbes консультантов и юристов, адаптация законодательства для защиты интересов участников финансового рынка при работе с ИИ все же необходима. Использование ИИ на финансовом рынке достигло масштаба, при котором отсутствие специальных правил создает как правовые, так и репутационные риски, полагает партнер московского офиса консалтинговой группы White Square Иван Сезин. «Рынку необходима четкая регуляторная рамка, включающая распределение ответственности между оператором, разработчиком и поставщиками данных. При нынешнем уровне автономности моделей традиционных механизмов ответственности уже недостаточно: без специальных норм об «алгоритмическом вреде» и требований к высокорисковым системам эффективная защита клиентов будет затруднена», — полагает Сезин. Материал по теме Законодательство нуждается в адаптации, считает партнер корпоративной практики Stonebridge Legal, кандидат юридических наук Роман Прудентов. «Первоочередная задача — установить четкие правила использования данных для обучения ИИ. Необходимо определить, как системы ИИ могут работать с информацией, которая может быть защищена авторским правом или являться коммерческой тайной, чтобы избежать правовых конфликтов», — полагает он. Разумным шагом кажется введение технического паспорта данных, используемых в обучении и применении банковских нейросетей, предлагает советник, руководитель IP/IT юридической компании LCH.LEGAL Кирилл Ляхманов. «Такой документ показывает, откуда взялись данные, что модель знает, чего не знает и для чего использует набор данных. Без этой информации невозможно понять, на каком уровне возникла ошибка», — поясняет он. По словам управляющего партнера адвокатского бюро «А-ПРО» Олега Попова, регулирование необходимо, но оно должно быть осторожным и умным. В первую очередь необходимо определить, кто и за что отвечает, отмечает Попов: «Требуется на законодательном уровне прописать, как распределяется ответственность между самой финансовой организацией, которая использует алгоритм, и компанией-разработчиком, которая его создала, если алгоритм причинил кому-то ущерб». Новое регулирование, по мнению Ляхманова, должно быть точечным: ответственность за сокрытие ограничений модели, за недостоверное описание ее возможностей, за запуск без реальной валидации. «Логично распределять ответственность по контролю над слоями: банк отвечает за решение и процессы, разработчик — за архитектуру и реализацию модели, поставщик — за происхождение и качество данных. Это позволит выстроить причинно-следственную связь между негативным последствием и допущенной ошибкой и справедливо распределить риски между всеми участниками цепочки», — размышляет юрист. Материал по теме Распределение ответственности между компанией, использующей ИИ, разработчиком ИИ и иными лицами, участвующими в создании моделей ИИ, также является необходимым и логичным, считает Попов. По его мнению, модель ответственности может выглядеть следующим образом: первичную ответственность перед клиентом несет финансовая организация, так как именно она оказывает услугу, получает вознаграждение и контролирует процесс ее оказания; разработчик ИИ должен нести субсидиарную ответственность за ущерб, который возник вследствие фундаментальных недостатков алгоритма (дефекты архитектуры, ошибки в коде), некорректных обучающих данных, предоставленных разработчиком, или несоблюдения им заявленных характеристик системы. Кроме того, необходимо законодательное закрепление этого распределения, а также механизмов регрессных требований финансовой организации к разработчику, полагает Олег Попов. При этом есть значительные препятствия для привлечения разработчиков ИИ и иных лиц, участвующих в создании модели ИИ, к ответственности за причиненный ущерб, говорят юристы. Прежде всего тут сложно доказать причинно-следственную связь, сетует Попов. «Крайне трудно доказать, что ущерб был причинен именно из-за ошибки в алгоритме, а не из-за неправильных входных данных, сбоя в другой системе или непредвиденных рыночных условий», — замечает он. Также существует проблема «черного ящика», с которым часто сравнивают ИИ. «Если даже разработчик хочет объяснить причину сбоя, он не всегда может это сделать из-за сложной архитектуры нейросетей», — поясняет Попов. Наконец, отсутствуют четкие стандарты и требования. «Сейчас нет единых государственных стандартов, которым должна соответствовать безопасная или этичная модель ИИ. Нетрудно представить, как разработчик в суде будет доказывать: «Мы сделали все в соответствии с лучшими на тот момент практиками, и никто не требовал от нас иного», — заключает он. Препятствие для привлечения разработчиков ИИ к ответственности содержится в условиях договоров с ними, отмечает партнер адвокатского бюро «Астериск» Федор Закабуня. Крупнейшие разработчики OpenAI, Google, Anthropic и другие в своих лицензионных соглашениях запрещают использование их моделей для принятия автоматизированных решений в сферах высокого риска, в том числе финансовые консультации в сфере кредитования и страхования без обязательной проверки человеком, поясняет он. Материал по теме «Если финансовая организация нарушит этот запрет и клиенту будет причинен вред, она не сможет предъявить регрессный иск разработчику, так как сама нарушила условия использования», — добавил Закабуня. Другим препятствием является автономность самообучения ИИ, развитие по принципу того самого «черного ящика». По словам Закабуни, разработчик ПО не может нести ответственность за то, как модель ИИ эволюционировала и чему она научилась уже после ее передачи заказчику. «В России эти сложные вопросы ответственности пока решаются в ручном режиме в рамках экспериментальных правовых режимов, где, например, используется механизм обязательного страхования ответственности участников», — заключил он. Source: https://www.forbes.ru/tekhnologii/550368-gruppa-razbora-cb-ocenit-otvetstvennost-ucastnikov-rynka-i-razrabotcikov-algoritmov