Искусственный интеллект бросает вызов конфиденциальности данных — IT-World

Компании сообщают 28.11.2025 Компания Sympace обсудила с экспертами тему киберугроз эпохи ИИ. В материале — ключевые выводы о новых рисках: от OSINT до атак на сами ИИ-системы, также и решения для защиты: от деперсонализации до федеративного обучения. erid: 2W5zFJ3Fkv4 ООО РУПОСТ Реклама В эпоху повсеместного распространения искусственного интеллекта персональные данные стали новым фронтом для кибератак. Именно эту проблему обсудили за круглым столом представители компании Sympace и эксперты в области информационной безопасности. Генеральный директор Sympace Сергей Ланских отметил: «ИИ демократизировал киберпреступность. Теперь для проведения сложной атаки не нужно быть высококлассным программистом. Достаточно уметь грамотно формулировать запросы к нейросети». Это подтверждается исследованием 2024 года, показавшим рост числа атак с использованием ИИ на 51%. Проще говоря, мощное хакерское оружие теперь доступно многим. Но как именно выглядит эта угроза? Участники выделили ключевые векторы современных угроз. Одним из таких стал OSINT — сбор данных на основе открытых источников. Современные ИИ-системы способны проводить глубокий анализ общедоступной информации, создавая сверхперсонализированные фишинговые атаки. Следующий вектор распространяется на генеративные ИИ, которые создают письма без грамматических ошибок, идеально имитируя стиль общения коллег. Это ведет к росту успешных атак на компании, где сотрудники привыкли доверять внутренней переписке. Особую тревогу могут вызвать голосовые клоны и дипфейки, которые используются в социальной инженерии. Теперь мошенникам достаточно несколько секунд аудиозаписи из открытых источников, чтобы сгенерировать убедительную атаку, что впоследствии сказывается на доверии к цифровому общению. Если кажется, что “индивидуальная” атака может затронуть лишь единицы, то массовые атаки бьют уже по всем сразу. Яркий пример — автоматизированные атаки на учетные записи с помощью ИИ-агентов. Раньше злоумышленникам приходилось вручную проверять базы украденных паролей. Теперь же ИИ-агенты делают это за них, самостоятельно проверяя миллиарды парольных пар на различных сервисах. Это приводит к массовым взломам, и особенно уязвимы те пользователи, которые используют один и тот же пароль на нескольких платформах. А что делать, когда угрозы исходят не только с помощью ИИ, но и направлены на сам искусственный интеллект? Риск есть и здесь. Например, инверсионные атаки помогают злоумышленникам извлекать конфиденциальные данные прямо из обучающих наборов нейросетей. Также опасны и методы «отравления данных», которые могут нарушить работу алгоритма. Последствия таких атак выходят за рамки утечек. Представьте, что автопилот автомобиля перестает правильно распознавать дорожную разметку из-за манипуляций хакеров в системе. Это подрывает доверие ко всей системе ИИ — разрушается основа для их внедрения в рабочие процессы. В свете этих вызовов участники сошлись во мнении, что бизнесу, внедряющему ИИ, приходится защищать не только данные, но и саму интеллектуальную систему. Здесь на страже стоят и современные методы защиты, такие как деперсонализация данных, дифференциальная приватность и федеративное обучение. «Бизнес должен воспринимать безопасность данных не как статью расходов, а как конкурентное преимущество, — резюмировал Сергей Ланских. — Доверие клиентов — это самый ценный актив в цифровую эпоху». И это доверие становится особенно важным в эпоху развития ИИ и на фоне меняющихся правил игры. Принятие «Закона об искусственном интеллекте» в ЕС — лишь первый звонок. Ожидается, что в ближайшие годы и российский бизнес столкнется с ужесточением требований и появлением новых стандартов безопасности. Комплексный подход к защите данных сегодня — не просто опция, а необходимость для тех компаний, кто планирует оставаться на рынке и завтра. Source: https://www.it-world.ru/news-company/gyptzsg1c4oo84ggw440gosgckowwoo.html