Искусственный интеллект: правовые и этические проблемы — Адвокатская газета

Искусственный интеллект: правовые и этические проблемы Правоотношения в области разработки и применения ИИ должны регулироваться законодательно Член Адвокатской палаты города Москвы, МКА «Логос» 24 октября 2025 Legal tech Технологии с использованием искусственного интеллекта находят все более широкое применение в самых разных сферах. Плюс ИИ прежде всего в том, что он помогает обрабатывать большое количество информации и делает это оперативно. Например, для программирования теперь не обязательно самому писать код – его могут написать боты. В свою очередь, минус ИИ в том, что ни одна модель не может – и, думаю, вряд ли сможет – гарантировать на 100% корректный результат. В связи с этим представляется, что использовать ИИ нужно ограниченно, соблюдая баланс между цифровыми технологиями и работой человека. Так, если поручать ИИ больший объем работы, оставляя себе меньший, то с большой вероятностью потом придется часами исправлять то, что сгенерировал ИИ. Полностью полагаться на цифровые технологии не стоит, нужно все проверять: например, ИИ может привести устаревшие данные, придумать то, чего в действительности не существует. Таким образом, ИИ не является панацеей – это просто еще одна технология, которую надо знать и уметь применять. Указом Президента РФ от 10 октября 2019 г. № 490 утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 года. Под ИИ понимается «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их». В Национальной стратегии определены также основные принципы развития и использования технологий ИИ, в частности – защита прав и свобод человека, права на труд, возможность получать знания и приобретать навыки для успешной адаптации к условиям цифровой экономики, безопасность (недопустимость использования технологий ИИ в целях умышленного причинения вреда гражданам и организациям; предупреждение и минимизация рисков; обеспечение информационной безопасности). Таким образом, представляется необходимым принятие закона, регулирующего правоотношения в области разработки и применения ИИ (возможно, с последующим включением соответствующих положений в кодифицированные акты). Например, кто и какую ответственность должен нести в случае ДТП с участием транспортного средства, оснащенного системами с искусственным интеллектом: водитель, производитель автомобиля или разработчик системы с ИИ, которая вмешивается в управление или ведет машину на автопилоте? Или кто должен отвечать за причинение вреда пациенту в ходе лечения с применением технологий ИИ: врач, медицинская организация или разработчик ИИ, поставившего неправильный диагноз? В заключение приведу три закона робототехники, которые ввел в обиход американский фантаст Айзек Азимов в рассказе «Хоровод» (1942 г.). По замыслу автора, три закона должны привнести этический оттенок в поведение машины. Эти законы устанавливают: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред; робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону; робот должен заботиться о своей безопасности в той мере, в которой это не противоречит указанным законам. В 1986 г. в романе «Роботы и Империя» А. Азимов предложил «нулевой закон»: робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред. Source: https://www.advgazeta.ru/mneniya/iskusstvennyy-intellekt-pravovye-i-eticheskie-problemy/