30.10.2025 07:30:00 Юрий ТЕРЕХ Президент Беларуси Александр Лукашенко на III Минской международной конференции по евразийской безопасности обозначил, что гонка технологий превращает ИИ в оружие. И оно со временем может стать даже более страшным, чем огнестрельное. Что нам нужно делать на глобальном уровне, чтобы не допустить кошмарных сценариев? Президент Беларуси Александр Лукашенко: — Искусственный интеллект. Нарастающая проблема. Неуправляемая гонка в этой сфере превращает его из полезного ресурса в оружие. В перспективе — массового поражения. Мы предлагали сопредельным странам создать пояс цифрового добрососедства. Пора этим поясом объединить всю Евразию и учесть принципы цифрового суверенитета и нейтралитета в нашей будущей Хартии многополярности и многообразия в текущем веке. Во время участия в III Минской международной конференции по евразийской безопасности, 28 октября 2025 года. Суть проблемы И ведь действительно, многие еще не поняли, что нейронки для человечества — это не просто новый огонь и новое электричество, а еще и новое оружие. Оружие настолько необычное, что его пока так даже не воспринимают. Любой римский легионер напал бы на человека с автоматом в руках с абсолютной уверенностью в собственном превосходстве, ведь у него меч, а у противника непонятная палка, которой явно неудобно бить, и умер бы очень удивленным, так и не поняв, что произошло. Вот и мы сейчас смотрим на что‑то совершенно новое, понимаем, что его как оружие использовать, в принципе, вроде можно, но не очень удобно, да и по старинке как‑то привычнее. Впрочем, с появлением огнестрельного оружия контролировать его начали далеко не сразу. Оно было таким же товаром, как и кокаин, продающийся раньше в аптеках. Можно было просто пойти в магазин и купить револьвер, когда‑то это считалось нормальным. Прошло всего чуть больше ста лет — и как все изменилось: о кокаине в свободной продаже и владении оружием без специального разрешения даже речи не идет. И все это принимают, учитывая риски, которые несут и оружие, и наркотики. Но сегодня человек может самостоятельно развернуть у себя дома нейросеть и делать с ней все, что хочет. Пока он не нарушает действующего законодательства, никаких претензий к нему быть не может. И вот лет через сто кто‑то будет с таким же умилением ссылаться на нашу эпоху, приводя пример, что вот тогда можно было свободно пользоваться нейронками без ограничений, как мы сейчас умиляемся джентльменам, когда‑то не выходящим без револьвера из дому. Просто понимают это далеко не все и поймут еще не скоро. Поэтому Александр Лукашенко и предлагает начинать очерчивать уже сейчас красные линии в использовании этих технологий на межгосударственном уровне. О чем договариваться Так о чем, собственно, идет речь, о чем прямо сейчас можно подписывать международные договоры, хотя бы в рамках Евразии. Копий тут будет сломано еще очень много, но как минимум можно договориться не применять эти технологии для вмешательства во внутренние дела соседей. Повлиять на результаты выборов с помощью нейронок — это не фантастика. Манипуляции общественным мнением, формирование нужных нарративов — уже реальность. Это все есть и работает. Люди смотрят на нейросети под другим углом, а их пора выделить в особую категорию и регулировать отдельными законодательными актами. Понятно, что люди всегда играют с новыми игрушками, пока те внезапно их по лбу не стукнут. Однако как первый шаг некий законодательный акт, ограничивающий использование таких технологий друг на друге, лишним точно не будет. О конвенциях, запрещающих злонамеренное использование, как это было с противопехотными минами, речи пока не идет. Но начинать надо с малого. И самый важный момент, актуальный именно сейчас: следует договориться на межгосударственном уровне о контроле над данными, на которых будут обучаться нейросети. Например, подписать договор, что страны, на территории которых находятся дата‑центры, на законодательном уровне обязаны проверять законность получения данных для обучения. Это уже прямо сейчас не помешало бы. О каких незаконных данных речь? Ну хотя бы об украденных базах клиентов, заказывающих пиццу, я уже молчу о чем‑то посерьезнее вроде баз данных паспортов или клиентов банков. Только не надо улыбаться на словах про сеть пиццерий, это гораздо серьезнее, чем кажется. На длинных дистанциях нейросети со статистикой буквально чудеса творят, а уж куда результат применить… Это исключительно от злонамеренности обучающих зависит. И вот использование подобных массивов пресечь стоит. Серьезную нейронку в домашних условиях не обучишь, тут огромные мощности нужны, и такие мощности на своей территории все государства контролируют, как и источники энергии для их питания. Невозможно незаметно использовать энергию, достаточную для работы сталелитейного завода. Как минимум можно начать противостоять на международном уровне еще только зарождающемуся виду преступности до его появления. Завтра можно уже опоздать Предложения нашего Президента сильно опережают время, не все еще осознали наличие проблемы, не говоря о необходимости международного регулирования. Многим это все кажется какой‑то фантастикой. Но беда в том, что фантастика имеет свойство воплощаться в реальность и иногда это происходит быстрее, чем человек успевает дочитать книгу про будущее. Сейчас как раз такой случай. Слишком бурно все развивается. То, что казалось сказкой полгода назад, уже обыденность. А еще через полгода воплотится в реальность то, что кажется сегодня невероятным. И действовать тут надо на опережение. Решать в правовой плоскости Некоторые страны всерьез озаботились ограничением использования с помощью нейросетей образов людей без их согласия. Законодательно это пока выделить сложно — задача действительно непростая. Ведь если образ известен, любой может его нарисовать, а уж чем рисовать — вопрос технический. Пока просто отдельные государства оказывают давление на сервисы, предназначенные для обмена и использования образов знаменитостей, но проблема существует, и решать ее придется в правовой плоскости. Может, нам стоит в рамках Евразии подписать соглашения о правовой помощи для противодействия подобному использованию ИИ? Да, это все есть в общем законодательстве, но речь идет о вынесении нейросетей в отдельную правовую категорию, обычные нормы тут работают далеко не всегда и применимы весьма условно. По крайней мере сейчас человек, на котором обучили нейросеть, законодательно сделать с этим не может вообще ничего, бороться можно только с результатом, с изображениями, голосом, видео, а запретить кому‑то обучать на себе нейронку на данный момент не может вообще никто, юридических механизмов для этого не существует. В этой сфере о чем‑то можно попробовать договориться. Source: https://www.sb.by/articles/neyronnoe-reshenie.html?amp=1