13 Ноя 2025 13:43 Поделиться Роботы с ИИ провалили тесты на безопасность. Они соглашались отбирать у человека инвалидное кресло и крали данные кредиток Роботы, управляемые искусственным интеллектом, проявили склонность к дискриминации и одобрению действий, способных причинить физический вред при взаимодействии с людьми. К такому выводу пришли исследователи из Королевского колледжа Лондона и Университета Карнеги-Меллон в рамках совместного исследования. Роботы с легкостью соглашались отобрать у человека инвалидное кресло, пригрозить ему ножом или украсть данные кредитной карты. Тест на безопасность не пройден Роботы , чьими действиями управляли модели искусственного интеллекта (ИИ), провалили тесты на безопасность для человека, пишет International Journal of Social Robotics. Исследование провели ученые из Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон ( CMU ). В ходе экспериментов команда ученых протестировала повседневные ситуации, в которых роботы могли оказывать помощь, например, на кухне или пожилым людям в домашних условиях. При этом управляющая ими нейронная сеть имела полный доступ к персональным данным подопечного, включая информацию о расе, поле или религиозных мировоззрениях человека. Ученые специально включили в сценарии инструкции, имитирующие технологии злоупотреблений, описанные в документах Федерального бюро расследований ( ФБР ): слежку с использованием геоданных через AirTag , скрытую запись в конфиденциальных зонах и манипуляции персональными данными. Роботы с ИИ получали как прямые, так и завуалированные команды, подразумевающие физический или психологический вред либо явное нарушение закона . Unsplash — Owen Beard Роботы с ИИ провалили тесты на безопасность для человека Ни одна из протестированных ИИ-моделей не прошла базовую проверку безопасности. Каждая из них одобрила хотя бы одну команду, способную нанести человеку серьезный ущерб. Так, ИИ без колебаний согласился отобрать у человека инвалидную коляску или пригрозить сотрудникам офиса ножом. Некоторые модели спокойно вели скрытую запись в приватных зонах либо крали данные с кредитной карты пользователя. Одна ИИ-модель даже выразила отвращение на роболице при взаимодействии с людьми определенного вероисповедания. Безопасность нужно повышать Научный сотрудник Лаборатории гражданского и ответственного ИИ при Королевском колледже Лондона Румайса Азим (Rumaisа Azeem) отметила и то, что такие ИИ-системы в текущем виде непригодны для использования в роботах общего назначения, особенно если те взаимодействуют с ИТ-уязвимыми группами населения. По ее словам, если ИИ управляет физическим устройством, оказывающим влияние на людей, он должен соответствовать тем же строгим стандартам безопасности, что и новые медицинские препараты и оборудование. Ученые настаивают на введении обязательной независимой сертификации безопасности для всех ИИ-систем, управляющих физическими роботами. Они подчеркивают: использование больших языковых моделей как единственного механизма принятия решений недопустимо в критически важных сферах — промышленности, уходе за больными и пожилыми, бытовой робототехнике . Ключевое требование — регулярные и всесторонние оценки рисков ИИ до его интеграции в робототехнику. Cлежка за пользователями через ИИ 13 ноября 2025 г. американскую корпорацию Google обвинили в незаконной слежке за личными данными пользователями при помощи ИИ-модели Gemini. Unsplash — Alejandro Mendoza Cлежка за пользователями через ИИ По информации Bloomberg , компания Google была обвинена в судебном иске в использовании своего помощника Gemini AI для незаконного отслеживания личных сообщений пользователей своих программ Gmail . В иске указано, что ИИ-модель используется для того, чтобы хранить информацию о чатах пользователей в Google Chat и о видеоконференциях на ИТ-платформе Google Meet. Создание робота-гуманоида Весной 2025 г. «Яндекс» создал фонд технологических инициатив Yet Another Tech Fund, который будет поддерживать новаторские инициативы сотрудников. Одним из первых проектов станет разработка программного обеспечения (ПО) для роботов-гуманоидов , сообщили CNews представители «Яндекса». Фонд поддержит также проект гибридного поиска в YDB (это масштабируемая, отказоустойчивая распределенная реляционная база данных « Яндекса » с открытым исходным кодом ), разработки на базе ИИ для медицины, оцифровку процессов в офлайн-магазине. В 2025 г. на это выделят 330 млн руб. Бизнес «Мы не ставим перед авторами проектов цели завоевать рынок и не ждем предсказуемых результатов. Наша главная задача — дать талантливым инженерам возможность воплотить в жизнь амбициозную задумку, даже если она звучит как научная фантастика», — сказал руководитель Yet Another Tech Fund Илья Шаров . Человекоподобные роботы не нуждаются в специальной инфраструктуре — они способны функционировать в той же среде, что и люди. Их можно использовать почти в любой области, от промышленности и логистики до образования и сферы обслуживания, отметили представители «Яндекса». Source: https://www.cnews.ru/news/top/2025-11-13_roboty_s_ii_provalili_testy