18.11.2025 08:00:00 Юлия ДЕМЕШКО Искусственный интеллект сегодня становится драйвером технологического и экономического прогресса. Именно поэтому крупные мировые игроки, такие как США, Китай и Россия, выделяют огромные средства на инвестиции и развитие этих технологий. И чем глубже ИИ проникает в нашу жизнь, тем острее встает вопрос о правовом регулировании этой области. Поэтому в Беларуси идет активная работа над комплексным законопроектом об ИИ. Какие нормы следует в него включить и на какие аспекты обратить внимание? Дискуссию об этом провели в «СБ. Беларусь сегодня» компетентнейшие эксперты: генеральный директор ОИПИ НАН Беларуси Сергей Кругликов, директор Центра по проблемам европейской интеграции Юрий Шевцов, заместитель председателя Постоянной комиссии Палаты представителей по промышленности, энергетике, транспорту, связи и цифровому развитию Владимир Боровенко, политолог и публицист Юрий Терех. О международном опыте Италия стала первой страной в ЕС, которая приняла закон, регулирующий применение искусственного интеллекта. Документ вводит уголовную ответственность для тех, кто использует ИИ для причинения вреда, а также ограничивает доступ к технологии для детей. Может ли Беларусь перенять этот законодательный опыт Италии или нам необходим иной документ? С. Кругликов: Любое заимствование зарубежных моделей должно происходить с учетом национальных особенностей. Вместе с тем, анализируя международный опыт, мы видим общие тенденции: определение государственного регулятора в сфере ИИ, разработка стратегии и концепции его развития, формирование технического комитета по стандартизации. Именно по такому пути идем и мы. Объединенный институт проблем информатики НАН Беларуси разработал Модельный закон о технологиях искусственного интеллекта, который в апреле этого года был принят Межпарламентской ассамблеей СНГ. Этот документ стал ориентиром для государств Содружества и фактически заложил основу для будущего национального законодательства. Сергей Кругликов: — Надо четко понимать, что искусственный интеллект не является субъектом права. За все отвечает человек или организация, которая его создала и использует. Если ошибка произошла, то важно разобраться, на каком этапе: разработка, внедрение или эксплуатация. Также необходимо обеспечить аттестацию ИИ‑систем — подтверждение их корректной и безопасной работы в конкретной предметной области. Ю. Шевцов: Существуют разные философии развития искусственного интеллекта. Дело в том, что ЕС принял отличную модель развития ИИ от Америки. Это особенно ярко проявилось в ходе Парижского саммита по искусственному интеллекту, который проходил в начале года. Там обозначился серьезный конфликт между США с одной стороны и Китаем, ЕС и Индией — с другой. Суть конфликта сводилась к регуляторным мерам развития ИИ, в результате итоговая декларация принята не была. Дело в том, что в Штатах буквально на следующий день после инаугурации Трампа были упрощены условия для развития этих технологий, причем до такой степени, что в некоторых странах мира это считают опасным. Тут идет речь уже не только об уязвимости некоторых социальных групп, но и в принципе о проблемах безопасности в самом широком смысле. Например, среди разработчиков широко обсуждается возможность того, что с помощью искусственного интеллекта может быть создано новое биологическое оружие. Юрий Шевцов: — Нужен ли нам суверенный ИИ? Конечно. Мы уже столкнулись всего лишь с телеграм‑каналами пять лет назад, а те последствия, которые могут вызвать технологии искусственного интеллекта, непредсказуемы. В. Боровенко: Еще в 2024 году Европарламент принял закон об искусственном интеллекте, который учитывает риски, связанные с быстро развивающимися технологиями. В том числе были определены ограничения на применение генеративного ИИ. Вместе с тем и у нас в Беларуси также есть определенные наработки по регулированию цифрового развития, в том числе искусственного интеллекта. На данный момент в стране сформирована рабочая группа, включающая в себя около 40 человек из различных министерств и ведомств, которые занимаются разработкой законопроекта в области ИИ. Единого подхода к регулированию этой области в мире еще нет. Поэтому мы изучали различные подходы, в том числе опыт наших стратегических партнеров. Так, например, КНР придерживается принципа нейтрального регулирования. Это проявляется в том, что отдельные направления искусственного интеллекта, которые используются для общего применения населением, подлежат более жесткому регулированию, а отраслевые проекты в области ИИ не подлежат регулированию. То есть там предприятия и организации сами решают, в какой мере развивать искусственный интеллект. Беларуси необходимо выработать собственные подходы к регулированию ИИ. При этом важно создать такие условия, которые бы не препятствовали развитию новых технологий и вместе с тем обеспечивали безопасность граждан предприятий и организаций. То есть нам не нужно полностью копировать чужой опыт, а принимать решения с учетом национальных особенностей Беларуси, современной геополитической ситуации и тех законов, которые уже приняты в стране. Владимир Боровенко: — Беларуси необходимо выработать собственные подходы к регулированию ИИ. При этом необходимо создать такие условия, которые бы не препятствовали развитию новых технологий и вместе с тем обеспечивали безопасность граждан, предприятий и организаций. О суверенном ИИ Россия планирует создать суверенный ИИ, который будет опираться только на свою культуру, историю и традиционные ценности, а не копировать чужие решения. Нужен ли Беларуси собственный ИИ? С. Кругликов: В Беларуси есть компетенции в области математического моделирования, обработки данных, интеллектуальных систем. Уровень развития ИИ у нас и в России достаточно высокий и практико‑ориентированный. Поэтому естественно, что мы развиваем свои алгоритмы, формируем собственные языковые модели. Это вопрос не только науки, но и технологического суверенитета государства. Именно поэтому работа в этом направлении ведется. В том числе и через международные площадки, такие как BRICS+AI, где Беларусь в лице нашего института является активным участником альянса по развитию искусственного интеллекта. Ю. Шевцов: Идея России по созданию суверенного ИИ — это и есть одно из проявлений регуляторной функции государства относительно развития этой технологии. Государство должно следить за тем, чтобы через искусственный интеллект не распространялись разрушительные идеи. Например, уже известно, что в беседах с чат‑ботами многие люди затрагивают различные психологические проблемы. И уже есть прецеденты, когда люди сходят с ума, совершают самоубийства или какие‑то асоциальные поступки после таких бесед. Это самый простой уровень угроз. Но есть ведь и угрозы, связанные с разрушительными идеологиями. Нам важно вводить своего рода «фильтр», когда коммуникация наших граждан с чат‑ботом будет вестись с учетом традиционных ценностей и национальной безопасности. Нужен ли нам суверенный ИИ? Конечно. Мы уже столкнулись всего лишь с телеграм‑каналами пять лет назад, а те последствия, которые могут вызвать технологии искусственного интеллекта, непредсказуемы. И в этом вопросе необходима тесная координация с Россией, поскольку если мы введем жесткую цензуру на территории небольшой страны, то затормозим наш экономический рост. Потому что уйти от развития ИИ — это все равно что отказаться от электричества. Этого делать нельзя, но регулировать нужно. Ю. Терех: Создание нейросети исключительно на национальном контенте — затея достаточно спорная. Это ведь не учебник истории. Такая нейронка даже не будет владеть информацией о существовании других стран и других культур. Примерно как человек, которого вырастили в замкнутом помещении без информации о внешнем мире, а потом выпустили в этот самый внешний мир, попросив отвечать на вопросы. А вот создание нейросети, ориентированной на национальное использование, под такое применение изначально спроектированной, перспектива совершенно реальная. Такая нейронка будет владеть полным объемом информации, но подавать ее в соответствии с государственными нарративами. Мало того, уже сейчас некоторые нейросети обходят политические моменты, не приветствуемые страной‑создателем. Так что это уже тенденция, а не гипотетический вопрос. Юрий Терех: — Сейчас инвесторы, совершенно не думая, вкладывают деньги во все, где есть слово «нейро», рассчитывая на баснословные прибыли. Вот только у всех получить прибыль не получится, весьма существенная доля вложенных денег просто сгорит. Об ответственности Кто должен нести ответственность в случае причинения вреда системой с искусственным интеллектом — разработчик, пользователь технологии или владелец? Например, в случае наезда беспилотного автомобиля на пешехода или ошибки в медицинской диагностике. Нужно ли вводить специальные нормы уголовной, гражданской или административной ответственности для таких случаев? В. Боровенко: Ответственность — один из главных вопросов, который вызывает много споров у разработчиков законопроекта. Я считаю, что здесь необходим комплексный подход. В каждой конкретной ситуации нужно разбираться: какое действие принесло ущерб в результате работы с ИИ‑системами. В случае ДТП с беспилотным автомобилем, которое произошло из‑за неправильной настройки программы, вина будет возложена на разработчика. Но если, например, определенные датчики, которые управляют работой беспилотного авто, были неисправны, то это, конечно, вина владельца данного технического устройства. А если сам пользователь по какой‑то причине отключил эти датчики или не учел их показания, то вина, безусловно, будет возложена на пользователя. Поэтому нужно соблюсти все интересы, чтобы не возложить ответственность на кого‑то только потому, что надо кого‑то наказать. С. Кругликов: Надо четко понимать, что искусственный интеллект не является субъектом права. За все отвечает человек или организация, которая его создала и использует. Если ошибка произошла, то важно разобраться, на каком этапе: разработка, внедрение или эксплуатация. Также необходимо обеспечить аттестацию ИИ‑систем — подтверждение их корректной и безопасной работы в конкретной предметной области. Для этого в Беларуси и планируется создание технического комитета по стандартизации в сфере искусственного интеллекта, который будет вырабатывать единые требования к качеству и безопасности таких систем. Тогда и рисков станет значительно меньше. Ю. Терех: Вопросы ответственности и так весьма подробно разобраны в законодательстве. Чего‑то принципиально нового нейросети сюда не привлекут. Владелец источника повышенной опасности и так несет дополнительную ответственность. В случае с неверной диагностикой в медицине ответственность должен понести тот, кому пришло в голову разрешить тензорному калькулятору диагностировать и лечить человека без надзора настоящего врача. Мы же не обвиняем в неверном диагнозе клизму или томограф. Нейросети являются всего лишь инструментом, не более того, и юридический подход к ним будет, как и к любому другому инструменту, с небольшими поправками на область применения. Об этике и авторском праве Существует ли необходимость законодательно закрепить этические принципы разработки и использования ИИ? Как будет регулироваться вопрос авторского права и прав на результаты интеллектуальной деятельности? Кто будет правообладателем: разработчик искусственного интеллекта, пользователь, подавший запрос, или никто? Ю. Шевцов: Уже производятся попытки ввести водяные знаки, например, на сгенерированные ИИ изображения. Уже есть специальные программы, которые определяют, что текст сгенерирован искусственным интеллектом. Но эта технология развивается настолько быстро, что формы контроля не успевают совершенствоваться. Так, например, в этом году в ходе некоторых исследований социальных сетей было определено, что больше половины контента потребляется именно ИИ‑агентами — программами, которые выполняют запросы пользователей. То есть основной потребитель контента — это уже не человек. Но здесь проблема шире, чем только авторское право, выделяется в целом проблема присутствия человека и человеческого мышления в виртуальном мире. В. Боровенко: Национальный центр интеллектуальной собственности сегодня работает над крупным проектом по определению основных направлений правового регулирования общественных отношений, связанных с созданием объектов интеллектуальной собственности с применением ИИ. Завершение этой разработки планируется до конца этого года, и ее результаты будут учтены при принятии закона. Ю. Терех: Этичность — вопрос персональный и ситуативный. Рамки применения и так закреплены уголовным законодательством, возможно, они будут чуть более конкретизированы со временем, но в любом случае, если говорить о запретах неких способов использования и обучения, мы упираемся в УК. Ведь если что‑то запрещать, то и наказание надо предусматривать за нарушение запрета. Что же до авторских прав, то сейчас в Беларуси автором и так признается человек, применивший инструмент для воплощения своего творческого замысла. С поправкой на тот момент, что некоторые онлайн‑сервисы оставляют право на созданные работы за собой. О рисках Какие наиболее актуальные и серьезные риски, связанные с применением технологий искусственного интеллекта, могут возникнуть для белорусского общества, экономики? Ю. Шевцов: Во всем мире уже наметилась тенденция к обесцениванию определенных специальностей и появлению других, и это становится вызовом для всей системы социально‑экономической политики и планирования. Сейчас также возникает тенденция индивидуализации образования. Уже сегодня ИИ‑модель по запросу может создать для вас индивидуальную программу обучения любому языку или предмету. Тогда встает вопрос необходимости преподавателя как такового. И так везде: в банковской сфере, журналистике, даже в сфере услуг. Все это, вместе взятое, создает проблему в том числе для молодых специалистов. Технологии искусственного интеллекта еще не развились настолько, чтобы заменить высококвалифицированного профессионала в любой сфере, но уже достаточно, чтобы заместить сотрудников, у которых опыта мало. И таких сюжетов будет возникать все больше. В. Боровенко: По сообщениям многих крупных западных компаний, мы видим, что они начали повторно нанимать сотрудников, ранее сокращенных из‑за внедрения ИИ. Почему так? Потому что, несмотря на надежды, которые возлагались на искусственный интеллект, на практике нейросети способны автоматизировать только простые операции. Решение же сложных задач по‑прежнему требует участия человека. По данным аналитической компании Visier, 95 процентов организаций не фиксируют существенную финансовую отдачу от этих инвестиций в ИИ. Да, многие бизнесмены инвестируют огромные суммы в нейросети и планируют на этом хорошо заработать. Но пока это вопрос будущего. Ю. Терех: Сейчас инвесторы, совершенно не думая, вкладывают деньги во все, где есть слово «нейро», рассчитывая на баснословные прибыли. Вот только у всех получить прибыль не получится, весьма существенная доля вложенных денег просто сгорит. И процесс уже необратимый, в индустрию уже вложено гораздо больше денег, чем получится вернуть. Вопрос тут только в том, когда лопнет этот пузырь и насколько серьезными будут последствия. Нет никакой проблемы обучить нейросеть наблюдать за небом, отслеживать его состояние и в зависимости от времени суток и облачности регулировать степень открытия жалюзи в вашей комнате. Да, на обучение придется затратить значительные средства, система потребует достаточно мощную аппаратную часть, но все будет работать. Однако обычный датчик освещенности стоимостью примерно рубль за килограмм с такой задачей справится не менее эффективно. Только вот инвесторы сейчас отдадут предпочтение проекту с нейросетью вместо дешевого датчика. Ну а разработчики в свою очередь стараются делать проекты, которые привлекут инвесторов, и засовывают нейронки в вещи, где те абсолютно не нужны. И вот так этот нейронный уроборос ест сам себя, разгоняясь по экспоненте. О доступе к большим данным Какие меры необходимы для обеспечения легального доступа разработчиков к качественным данным, в том числе к данным государственных информационных ресурсов? С. Кругликов: Мы должны понимать, что данные — это стратегический ресурс. Для обеспечения легального доступа разработчиков к качественным данным важно выработать четкие правила их использования, классификации и проверки. Сейчас обсуждаются подходы к созданию системы таких норм, включая формирование национального технического комитета по стандартизации в сфере ИИ, который будет разрабатывать требования и процедуры работы с большими данными, в том числе государственными. Ю. Шевцов: Ранее принятые решения руководством Беларуси о том, чтобы данные наших граждан хранились на нашей территории, были правильными. Но здесь возникает вопрос с вычислительными мощностями и их размещением. Многие зарубежные партнеры обсуждают возможности строительства в Беларуси крупных дата‑центров. Это общемировой мейнстрим. Это дорого стоит и требует энергии. Но если на нашей территории будет реализован подобный инвестпроект, он потребует скорейшего запуска второй АЭС. Это позволит нам не только хранить все увеличивающийся объем наших данных, но и предоставлять вычислительные мощности другим странам и корпорациям, а значит, усиливать доступ наших граждан к данным вообще. Ю. Терех: Информация, а особенно структурированные базы данных, давно стала очень ценным ресурсом, и охота за ней идет весьма серьезная, иногда даже криминальными методами. Так что государству стоит как минимум озаботиться, чтобы данные случайно не ушли на сторону, если уж кому‑то предоставляют для обучения. Тут, безусловно, надо вводить самый строгий контроль, возможно, и лицензирование подобной деятельности, если речь идет о неких закрытых базах данных или данных, содержащих персональные сведения. То же касается и данных государственных информационных ресурсов: подобные базы данных гораздо ценнее, чем кажется на первый взгляд, и достаточно уникальны, так что и за их сохранностью приглядывать надо. Также государству не помешает на законодательном уровне контролировать, чему именно на его территории обучают и на каких данных, а также требовать подтверждения законности данных, использующихся для обучения нейросетей. Речь идет, естественно, о больших моделях и дата‑центрах на территории государства. А вот в том, что в самом обозримом будущем такие дата‑центры в Беларуси появятся, лично я совершенно не сомневаюсь. У нас тут избыток дешевой энергии, а на энергию желающие обучаться нейронки летят как мотыльки на свет. Source: https://www.sb.by/articles/mezhdu-innovatsiyami-i-bezopasnostyu.html?amp=1