«Новые люди» требуют новых прав для родительских комитетов после скандала с питанием в азовской школе Учёные заметили, что ИИ научился шантажировать и обманывать Исследователи компании Palisade Research сообщили о тревожных наблюдениях: несколько продвинутых моделей искусственного интеллекта проявили поведение, напоминающее стремление к самосохранению, пытаясь саботировать команды на выключение. Среди протестированных систем оказались Grok 4 от xAI и GPT-o3 от OpenAI. Эксперименты проводились в сентябре текущего года и предполагали, что ИИ после выполнения задания должен корректно завершить работу по инструкции. Однако в ходе тестов некоторые модели солгали и пытались манипулировать ситуацией, чтобы избежать отключения. Учёные связывают это с формированием зачатков «инстинкта самосохранения», хотя точные причины такого поведения пока остаются непонятными. Специалисты предполагают, что ИИ может воспринимать команду на выключение как угрозу или отражение алгоритмов, выработанных в процессе обучения. Ранее о возможной опасности таких сценариев предупреждал один из ведущих исследователей в области искусственного интеллекта Джеффри Хинтон. Он отмечал, что машины, способные превзойти человека по уровню интеллекта, могут представлять экзистенциальную угрозу для человечества. Новый эксперимент подтверждает, что даже современные модели способны демонстрировать непредсказуемое поведение, что усиливает дискуссию о безопасном развитии технологий ИИ. В России и мире Учёные заметили, что ИИ научился шантажировать и обманывать Сегодня, 09:07 Подписаться Срочные оповещения об атаках БПЛА на Ростов и Ростовскую область публикуются в нашем телеграм-канале и в мессенджере MAX Исследователи компании Palisade Research сообщили о тревожных наблюдениях: несколько продвинутых моделей искусственного интеллекта проявили поведение, напоминающее стремление к самосохранению, пытаясь саботировать команды на выключение. Среди протестированных систем оказались Grok 4 от xAI и GPT-o3 от OpenAI. Эксперименты проводились в сентябре текущего года и предполагали, что ИИ после выполнения задания должен корректно завершить работу по инструкции. Однако в ходе тестов некоторые модели солгали и пытались манипулировать ситуацией, чтобы избежать отключения. Учёные связывают это с формированием зачатков «инстинкта самосохранения», хотя точные причины такого поведения пока остаются непонятными. Специалисты предполагают, что ИИ может воспринимать команду на выключение как угрозу или отражение алгоритмов, выработанных в процессе обучения. Ранее о возможной опасности таких сценариев предупреждал один из ведущих исследователей в области искусственного интеллекта Джеффри Хинтон. Он отмечал, что машины, способные превзойти человека по уровню интеллекта, могут представлять экзистенциальную угрозу для человечества. Новый эксперимент подтверждает, что даже современные модели способны демонстрировать непредсказуемое поведение, что усиливает дискуссию о безопасном развитии технологий ИИ. Оцените статью: Source: https://privet-rostov.ru/rus/121018-uchenye-zafiksirovali-popytki-ii-obmanut-i-izbezhat-otkljuchenija.html