Как мир регулирует ИИ — Habr

Подотчетность и governance Безопасность и конфиденциальность ISO собирается представить новые GenAI стандарты к концу 2025 года, а сертификацию по ISO 42001 уже прошли 50 организаций включая OpenAI, Anthropic и другие крупные компании, что означает, что индустрия приняла этот стандарт (в отличие от навязанного EU AI Act, который вендоры моделей обязаны соблюдать и сопротивляются). Отметим, что в ISO существуют и другие документы касательно ИИ, например, 23894:2023 Bias Mitigation in AI и 24027:2021, которые являются рекомендательными, но получили адаптации от индустрии. Вызовы трансграничной передачи данных Одна из ключевых проблем регулирования ИИ – трансграничная передача данных. Современные LLM обучаются на данных из множества юрисдикций, а инференс часто происходит в облачных инфраструктурах, распределенных по всему миру. Это создает конфликты между различными регуляторными режимами: GDPR в ЕС требует, чтобы передача персональных данных за пределы ЕС происходила только в страны с "адекватным уровнем защиты" или на основе специальных механизмов (Standard Contractual Clauses, Binding Corporate Rules). Китайский закон о защите персональных данных (PIPL) также ограничивает трансграничную передачу данных и требует security assessment для критических операторов. Российский ФЗ-152 требует локализации обработки персональных данных граждан РФ на территории России. Для компаний, разрабатывающих глобальные ИИ-сервисы, это означает необходимость: создавать региональные инстансы моделей и инфраструктуры; внедрять контроль размещения данных (data residency controls); использовать техники privacy-preserving ML (федеративное обучение, differential privacy). Как компании будут решать эту задачу в соответствии с регулированием – вопрос пока открытый. Но точно стоит следить за потоками персональных данных при разработке ИИ-решений; обучать LLM на вашей базе данных с паспортными данными клиентов будет плохой идеей. Российская специфика Законодательная база В России стратегию развития искусственного интеллекта до 2030 года определяет Указ Президента РФ №490, предусматривающий ускоренное внедрение ИИ, развитие кадров и инфраструктуры, а также обеспечение технологической независимости страны. В российском контексте регулирования ИИ ключевые стандарты включают: ПНСТ 839-2023 / ISO/IEC TR 24027:2021, посвященные анализу и оценке “смещенности” (bias) при принятии решений искусственным интеллектом; ГОСТ Р 70462.1-2022 , определяющий подходы к оценке робастности (устойчивости) нейронных сетей; ГОСТ Р 59898-2021 , устанавливающий общие требования к комплексной оценке качества, доверия, безопасности и надежности систем искусственного интеллекта. Есть базовые законы: ФЗ-152 о персональных данных, ФЗ-187 и Приказ ФСТЭК №177 о Критической Информационной Инфраструктуре. Требования к ИИ-приложениям пока носят общий характер, но с новыми нормативными документами будут уточняться в ближайшие годы. Приказ ФСТЭК №117 вступит в силу с 1 марта 2026. Он впервые вводит понятие защиты информации “при использовании искусственного интеллекта” для госсектора. Мы видим, что в документе помимо классических информационных систем явно выделены ИИ-системы. В приказе разделяют ИИ в формате строго заданных шаблонов запросов и ИИ свободной текстовой формы и разделяют требования к разным классам систем. В России активно несколько групп по разработке подхода к работе с ИИ: При поддержке Минцифры создан консорциум для исследований безопасности технологий искусственного интеллекта. Сейчас Минцифры разрабатывает проект концепции развития регулирования отношений в сфере технологий ИИ до 2030 г. Альянс в сфере искусственного интеллекта (включает крупнейшие технологические компании РФ). Ассоциация ФинТех координирует работу экспертных рабочих групп по этике и регулированию искусственного интеллекта в финансовой отрасли России, внедряя стандарты и лучшие практики для участников рынка.​ Группы работают по разному, но у всех стоит цель на соответствие национальной стратегии ИИ 2030. В 2025 году на форуме “Технологии доверенного ИИ” был открывающий доклад "Безопасность искусственного интеллекта" . В докладе читатели смогут увидеть рекомендации Минцифры касательно безопасности ИИ-систем: наличие комплексной матрицы угроз (для generative и predictive AI), проведение регулярного тестирования решений на обнаружение уязвимостей (включая prompt injection, data poisoning, extraction и др.), внедрение доверенной разработки с учетом защиты от атак на всех этапах жизненного цикла (от сбора данных до эксплуатации), а также обязательную региональную апробацию и формирование перечня мер по устранению рисков и соответствие национальным стандартам по ИБ и ИИ. Материал со слайда https://cdn.ib-bank.ru/trust-ai/materials/m/kd/shoitov.pdf Регионы ведущие совместную работы с Консорциумом: Москва, Московская область, Нижегородская область. Так же в регионах идут пилоты технологий основанные на ИИ-моделях: Новосибирская область: «Система голосового самообслуживания» Сахалинская область:Система распознавания видео изображения с объектов Республика Татарстан: Система распознавания фотоизображения сельхоз земель и сервис «ГосПромпт», для доступа госслужащих к ИИ-технологиям Концепция от Минцифры определяет нынешний подход к регулированию ИИ в России как гибридный: большинство нормативных актов носит стимулирующий характер, но есть точечные ограничения и механизмы саморегулирования. Например, в рамках экспериментальных правовых режимов (ЭПР) определены случаи обязательного страхования за вред, причиненный применением технологий ИИ. Основой будущего регулирования должен стать человекоориентированный подход, который включает: Доверенность технологий Уважение автономии и свободы воли человека Запрет на причинение вреда человеку Недопущение антропоморфизации ("очеловечения") технологий Создание единой системы регулирования в сфере ИИ требует разработки комплексного регулирования, которое будет учитывать все аспекты использования ИИ, включая этические, правовые и социальные нормы, основываясь на перечне приоритетных отраслей экономики. Более подробно на российской регуляторике мы остановимся в следующей статье. Что это значит для CISO и compliance-команд Если вы отвечаете за безопасность ИИ-инициатив, вам важно не просто знать нормативку, а понимать, куда она движется. Сегодня от вас требуют защищать данные и обеспечивать мониторинг, а завтра попросят доказать, что вы проводите адверсариальное тестирование и документируете риски модели. В HiveTrace и AI Security Lab мы изучаем и создаем инструменты обеспечения безопасности для GenAI-систем и активно наблюдаем за этими процессами, следим за изменениями нормативных требований: что уже действует в РФ, что готовится к внедрению, и какие практики из США и ЕС реалистично адаптировать под локальные условия. Мы делаем это потому, что сами строим продукт на пересечении технологий и регулирования. Подпишитесь на канал Лаборатории AI Security ИТМО , где мы разбираем уязвимости ИИ, кейсы взлома и другие прикладные темы. Мы фокусируемся на практической ценности, на тестировании атак, на разработке полезных в бизнесе инструментов. Изучаем работы OWASP (а в некоторые контрибьютм и сами), отчеты NIST, MITRE и другие. Все, что имеет практическую ценность, будь то новые рекомендации по red teaming или обновленные требования к защите ПДн, попадает в наш продуктовый бэклог и превращается в конкретные функции. P.S.: Выражаем благодарность за помощь в доработке статьи автору канала “Борис_ь с ml” . Теги: Source: https://habr.com/ru/companies/raft/articles/959630/