Что изменится для казахстанцев после принятия нового Закона об ИИ — Наш Костанай

Что изменится для казахстанцев после принятия нового Закона об ИИ 27.11.2025 12:40 77 👁 5 мин на чтение 17 ноября Президент Казахстана подписал Закон «Об искусственном интеллекте». Это первый комплексный документ, регулирующий работу нейросетей, автоматизированных систем и синтетического контента в стране. Что это означает для обычных казахстанцев? Он вступит в силу через 60 дней и станет основой для того, как технологии ИИ будут использоваться в медиа, бизнесе, госуслугах и повседневной жизни граждан. ПОЧЕМУ ОТДЕЛЬНЫЙ ЗАКОН? Еще два года назад понятия «нейросети», «генеративные модели» и «дипфейки» звучали как что-то далекое для большинства пользователей. Но массовое распространение ИИ, к примеру, того же ChatGPT, сделало вопрос регулирования как никогда актуальным. Прежде в Казахстане использовались лишь отдельные нормы в законах «Об информации», «О персональных данных», Кодексе об административных правонарушениях. Но потребовалась цельная рамка, которая определит, кто отвечает за действия ИИ, как обеспечивается прозрачность алгоритмов, что делать при ошибках и где проходит граница между допустимым и опасным использованием технологий. Депутат Мажилиса Екатерина Смышляева, руководившая рабочей группой по законопроекту, неоднократно подчеркивала, что искусственный интеллект не признается субъектом права. Ответственность за все решения, принятые с его помощью, всегда остается за человеком. Работа над пакетом законов об ИИ началась еще в 2024 году. В марте 2025 года депутат Екатерина Смышляева представила проект закона «Об искусственном интеллекте» в Мажилисе. И это ключевой принцип. Нейросеть – это не цифровой специалист, который разбирается во всех отраслях, а лишь инструмент, за который отвечает тот, кто им пользуется. ЧТО МЕНЯЕТСЯ ДЛЯ ГРАЖДАН Во-первых, появится маркировка синтетического контента. С 2026 года видеоролики, фото, аудио и тексты, созданные или измененные ИИ, должны будут сопровождаться специальным указанием. Это касается дипфейков, аватаров, нейроредактированных изображений и даже полностью сгенерированных новостей. Это делается для того, чтобы потребитель всегда понимал, где контент, созданный человеком, а где искусственно созданный образ. При этом важно понимать, что в случае ошибки ответственность несет человек. – ИИ помогает не нарушить право на изображение и защитить персональные данные, например, когда речь идет о чувствительных темах, когда нельзя показывать жертв насилия или детей. В таких материалах маркировка тоже обязательна, но она не вызовет негативной реакции у читателей, потому что использование ИИ в данной ситуации вполне оправданно, – отмечает юрист Правового медиацентра Гульмира Биржанова. Таким образом, синтетические лица и анонимизированные изображения позволяют журналистам рассказывать истории, не раскрывая личности героев. Однако есть и риски. – Минусы – это достоверность информации. Журналисты иногда берут текст от ИИ, не проверяют и публикуют. Модель может выдумывать, неправильно цитировать и ставить несуществующие ссылки, – подчеркивает Биржанова. Во-вторых, закон будет направлен на защиту от дипфейков. В последние годы Казахстан пережил всплеск таких сгенерированных видеороликов. Причем рядовые пользователи применяли новую технологию для создания креативных или юмористических видеороликов, а мошенники – для обмана. – Когда используют публичные лица в рекламе, как в истории с акимом Экибастуза Аяном Бейсекиным, с которым был создан дипфейк, будто он покупает куртку в одном из бутиков в рекламном ролике – это еще безобидно, хотя аким мог и в суд подать. Но когда дипфейк призывает к митингам или используется в мошенничестве – это уже противоправно и несет реальную опасность. В таких случаях ответственность будет и для тех, кто создает контент и для тех, кто его распространяет, – приводит характерные примеры Гульмира Биржанова. Закон прямо запрещает манипулирование поведением граждан, создание ложных образов и классификацию людей по чувствительным признакам. В-третьих, у казахстанцев появляется важная гарантия – они смогут запрашивать информацию о том, какие данные использовала система, как принималось решение и на каком основании. Например: почему алгоритм отказал в кредите, почему система поставила «низкий рейтинг надежности», почему робот-оператор не дал доступ к услуге. Это направление особенно важно, поскольку ИИ все чаще используется в банках, страховании, HR и сервисах госуслуг. Большое внимание в законе уделяется введению классификации систем искусственного интеллекта по нескольким критериям: степени риска, уровню автономности и типу (открытые, закрытые и локальные системы). Полностью автономные системы – те, где человек не может вмешаться в процесс принятия решений, – прямо исключены из регулирования как нереалистичные для нынешнего уровня развития технологий. Они не применяются на практике нигде в мире, поскольку считаются неэтичными. К примеру, если медицинская система ИИ самостоятельно без врача ставит диагноз и пациент не может оспорить решение, то это высокая автономность. Она недопустима согласно новому закону. В-четвертых, закон усиливает защиту персональных данных. Обучение моделей не может происходить на данных, собранных незаконно, а любые автоматизированные процессы должны соответствовать требованиям по сохранности информации. Это реакция на громкие утечки последних лет, как случай с утечкой базы данных на 16 млн граждан, массовый слив номеров телефонов в сеть. Скорректированы и другие акты, в том числе и об оперативно-розыскной деятельности, органах национальной безопасности, лицензировании в сфере кибербезопасности, торговой деятельности и цифровых активах. Часть поправок связана не только с ИИ, но и с общим усилением регулирования в цифровой среде. ИЗМЕНЕНИЯ В СОПУТСТВУЮЩИХ ЗАКОНАХ Третий элемент пакета – поправки в Кодекс об административных правонарушениях. Закон № 232-VIII вводит новую статью 641-1, устанавливающую административную ответственность за нарушение законодательства РК в сфере искусственного интеллекта. Речь идет прежде всего о действиях или бездействии собственников и владельцев систем ИИ – тех, кто запускает, эксплуатирует и предоставляет такие решения пользователям. При первом нарушении штраф составляет 15 МРП для физических лиц, 20 МРП для малого бизнеса и НПО, 30 МРП для субъектов среднего бизнеса и до 100 МРП для крупного бизнеса. При повторном нарушении в течение года штрафы увеличиваются до 30, 50, 70 и 200 МРП соответственно. Новый закон фиксирует минимальные правила игры: человеческие права выше алгоритмов, решения ИИ должны быть объяснимыми, а за последствия всегда отвечает человек, а не ИИ-модели. Для бизнеса закон добавляет дополнительные обязанности по документированию, маркировке при использовании ИИ-инструментов. Екатерина БАЙНЯШЕВА, карикатура сгенерирована ИИ, фото со страницы в Фейсбуке героя материала Много сидишь в социальных сетях? Тогда читай полезные новости в группах "Наш Костанай" ВКонтакте , в Одноклассниках , Фейсбуке и Инстаграме . Сообщить нам новость можно по номеру 8-776-000-66-77 Новости партнёров Source: https://top-news.kz/chto-izmenitsja-dlja-kazahstancev-posle-prinjatija-novogo-zakona-ob-ii/