Достоверность и человечность: в ВШЭ обсудили будущее медиаправа — HSE Daily

Достоверность и человечность: в ВШЭ обсудили будущее медиаправа Достоверность и человечность: в ВШЭ обсудили будущее медиаправа Фото: Высшая школа экономики Массовое внедрение искусственного интеллекта меняет медиапространство, размывая границы между реальностью и цифровыми симуляциями. Как сохранить доверие к информации и защитить свободу слова в новых условиях, обсудили эксперты в области права, философии и медиа. В Вышке состоялась XXXIV научно-практическая конференция «Медиаправо-2025», организованная Международным научно-образовательным центром «Кафедра ЮНЕСКО по авторскому праву, смежным, культурным и информационным правам» НИУ ВШЭ. Мероприятие собрало представителей более двух десятков стран, в том числе Азербайджана, Армении, Афганистана, Беларуси, Бельгии, Вьетнама, Гамбии, Ирана, Италии, Казахстана, Канады, Китая, Конго, Пакистана, Сирии, США, Таджикистана, Туркменистана, Узбекистана, Франции, Черногории. Современное медиапространство очень динамично, его регулирование требует своевременных глубоких исследований, отметил, открывая конференцию, директор Центра Михаил Федотов . Профессор зачитал приветствие ректора НИУ ВШЭ Никиты Анисимова , в котором тот подчеркнул важность сохранения ориентиров в меняющемся мире медиа. «Важно, чтобы человек остался человеком, а не придатком искусственного интеллекта», — уверен ректор Вышки. Никита Анисимов отметил важность продолжения международного научного сотрудничества и роль Кафедры ЮНЕСКО в развитии медиаправа, в том числе в качестве одного из направлений подготовки магистров в области юриспруденции. Он также сообщил, что университет получил из ЮНЕСКО подтверждение мандата Кафедры вплоть до 31 декабря 2029 года. Декан факультета креативных индустрий НИУ ВШЭ Андрей Быстрицкий отметил, что необходимо развитие медиаправа, отвечающее на вызовы стремительного развития современных коммуникационных технологий. «Мы видим коммуникационную вакханалию и порожденные ею сложные проблемы. Не регулировать медиакоммуникации нельзя, но и пережимать очень опасно», — сказал он. Заместитель декана факультета права НИУ ВШЭ профессор Александр Ларичев подчеркнул важность междисциплинарных исследований Кафедры ЮНЕСКО по изучению проблем применения искусственного интеллекта и охраны интеллектуальной собственности, требующих серьезного теоретического анализа и практического понимания вопросов правотворчества и правоприменения. Он обратил внимание на необходимость баланса между интересами развития и соблюдения безопасности применения новых технологий. Первый заместитель председателя комитета Государственной Думы по информационной политике, информационным технологиям и связи Марина Ким считает крайне важной проблему применения ИИ в медиа. Границы между реальностью и цифрой размываются, что влияет на информационную безопасность и достоверность сведений, получаемых широкой аудиторией. Она уверена, что алгоритмы искусственного интеллекта должны учитывать российские законы и ценности, в противном случае возможен кризис, лишающий людей права на правду и достоверность получаемой информации. «Наш избиратель и зритель должен знать, кто с ним говорит, живой человек или алгоритм, важна маркировка контента, созданного с применением ИИ. Пусть наш искусственный интеллект будет ответственным и с человеческим лицом», — подчеркнула депутат. Заместитель директора департамента по многостороннему гуманитарному сотрудничеству и культурным связям МИД России Степан Кузьменков отметил высокий авторитет НИУ ВШЭ и Кафедры ЮНЕСКО в сфере защиты культурного наследия и осмысления вклада ИИ в мировое развитие. Он выделил важность вопросов создания фундамента для разработки инклюзивной цифровой трансформации, ответственного ИИ и достижения равного доступа. «Целевой ориентир – соблюдение человеческого достоинства и недопущение нанесения вреда», — подытожил дипломат. Уполномоченный по правам человека в Российской Федерации Татьяна Москалькова в видеообращении поздравила участников с Международным днем прав человека. Она отметила, что искусственный интеллект облегчил рутинные рабочие процессы во многих профессиях, но вместе с тем усложнил жизнь и увеличил риски. Россия считает цифровую трансформацию инструментом реализации национальных приоритетов и одновременно пространством, требующим особого контроля, в том числе защиты прав человека и индивидуальности, защиты от навязывания тех или иных действий. Фото: Высшая школа экономики Татьяна Москалькова подчеркнула, что СМИ играют важнейшую роль в формировании общественного сознания и культуры, поэтому необходимы гарантии защиты прав и свобод человека при применении ИИ в медиа. На первой пленарной сессии «Ответственные медиа и искусственный интеллект» большой интерес вызвал импульсный доклад члена-корреспондента РАН, заведующего кафедрой компьютерного права и информационной безопасности ВШГА МГУ имени М.В. Ломоносова Юрия Батурина «Медиа с искусственным интеллектом: мир в двойных зеркалах». В нынешних условиях аккаунты в соцсетях отчасти играют роль СМИ, отражающих реальное положение дел, пояснил ученый. Человек, регулярно потребляющий информацию, похож на персонажа, идущего между двумя зеркалами и видящего бесконечные отражения. Он волен выбирать любую картину, но чем дальше, тем более далека она от реальности. Нередко соцсети создают «фильтры-пузыри», когда алгоритмы отбирают для него контент, исходя из истории прочтений и переписки с другими пользователями. Появился и тип алгоритмов, таких как трансформеры, позволяющие быстро создавать новых ботов. Особенности обучения алгоритмов зачастую вызывают предвзятость, галлюцинации и преднамеренные фейки. Вместе с тем новые технологии — например, камеры мобильных телефонов, способные преобразовывать снимки при небольшом участии пользователя — делают фальсификацию реальности регулярной практикой. Все это приводит к тому, что контент для обучения ИИ будет больше искажаться от поколения к поколению, отметил Юрий Батурин. В такой ситуации повышается риск, что люди, не имеющие достаточного уровня критического мышления, будут верить в реальность измененной ИИ картины. Он также обратил внимание, что генеративный ИИ ведет к двойным искажениям из-за предубеждений алгоритма и ошибок при передаче информации, но часть пользователей этого не понимает. «Мы вступили в период, когда информация передается через открытые платформы, когда сгенерированные данные влияют на то, как мы видим друг друга и мир. Нужно описать и регулировать, что такое СМИ, что такое правдивая информация, что такое ее свобода, свобода мнений и цензура», — отметил Юрий Батурин. Михаил Федотов представил доклад «Логика медиаправа против логики искусственного интеллекта». Он отметил, что стремился сопоставить юридическую логику и представления разных вариантов ИИ о медиаправе. Фото: Высшая школа экономики Докладчик рассказал о своем опыте общения с ИИ. В ответ на вопрос, как она понимает основу медиаправа, нейросеть Perplexity ответила банальным утверждением, что это поиск баланса между свободой слова и другими конституционными правами. При этом данная модель ИИ верно назвала авторов действующего закона о СМИ. Когда докладчик задал тот же вопрос китайской DeepSeek, то получил многословный ответ, не содержавший при этом верных сведений об авторах закона о СМИ, назвав его «результатом коллективного труда». Получив дополнительные вопросы, DeepSeek назвал одним из ключевых принципов закона о СМИ недопущение их концентрации в одних руках, чего в законе нет. При этом ни одна из нейросетей не заметила в законе о СМИ, принятом в 1991 году, созданного авторами «замкнутого контура», при котором ограничение свободы массовой информации возможно только через профильный закон или принятые в соответствии с ним другие федеральные законы. По мнению Михаила Федотова, логика медиаправа выстраивается через оптимальную модель регулирования медиасферы, баланс между защитой интересов прессы и охраной прав граждан и общества. Он полагает, что поправки в законы, касающиеся деятельности СМИ, нередко нарушают логику медиаправа, но ИИ не замечает этого. На сессии также был представлен доклад директора Центра правовой защиты интеллектуальной собственности, члена-корреспондента Международной академии сравнительного права (Франция) Владимира Энтина «Медиа с искусственным интеллектом – провайдеры или дистрибьюторы информационного продукта?». На второй пленарной сессии «Искусственный интеллект и медиа: взгляд философа» академик РАН, председатель Научного совета РАН по методологии искусственного интеллекта и когнитивных исследований, заведующий отделом эпистемологии, онтологии и логики Института философии РАН Владислав Лекторский представил доклад «Можно ли манипулировать общественным мнением с помощью искусственного интеллекта?». Он напомнил, что на искусственный интеллект и его технологии возлагались такие же надежды, как и на появление интернета. В частности, строились предположения, что может и что не способен делать ИИ, обсуждалось, нужны ли человеку все его функции и насколько они полезны. По мнению академика, сейчас ИИ ставит вопрос о границах между человеком и технологиями с учетом возможных масштабов их применения. Не случайно Илон Маск в одном из интервью предположил вероятность приостановки развития искусственного интеллекта из-за возможности появления ИИ с собственным сознанием. Фото: Высшая школа экономики Ученый полагает, что следует задуматься, как правильно и с пользой использовать технологии искусственного интеллекта, не допустить замещения им творческой деятельности, в частности, в искусстве и науке. Также, по его мнению, технологии ИИ могут применяться для манипулирования общественным мнением, что уже происходит в социальных сетях — например, с использованием ботов, которые продвигают тот или иной нарратив. В частности, такое применялось для влияния на голосование в отдельных странах. При этом академик рассказал, как распознать манипуляции. В обычном диалоге между равными собеседниками стороны высказывают логические аргументы для убеждения оппонента, а не подменяют их эмоционально окрашенными доводами, навязывая определенную точку зрения и используя различные психологические приемы. Системы ИИ часто используют для создания фейков, придания им правдоподобия. Сейчас критически мыслящий человек достаточно легко отличает мнимое от реального, но иллюзии, созданные с помощью технологий ИИ, становятся все сложнее и правдоподобнее, что облегчает попытки выдать симулякр за оригинал. Поэтому ответственные СМИ крайне важны для создания и доведения до аудитории достоверной информации, учитывающей разные позиции. «Речь идет о защите фундаментальных ценностей», — уверен Владислав Лекторский. «Важно, чтобы человек остался человеком, а искусственный интеллект — его инструментом. Он нужен как партнер и помощник, а не хозяин», — подвел итоги дискуссии Михаил Федотов. Дата публикации: 15.12.2025 Source: https://daily.hse.ru/post/dostovernost-i-celovecnost-v-vse-obsudili-budushhee-mediaprava