Поделиться Чем лучше нейросети думают, тем меньше готовы сотрудничать. ИИ может вредить человечеству, давая эгоистичные советы Эксперименты показали, что чем более развита у ИИ способность рассуждать, тем меньше он готов сотрудничать. Продвинутые ИИ-модели будут способствовать проявлениям эгоизма, рекомендуя пользователю не обращать внимания на общественные интересы. Это может стать угрозой по мере распространения интеллектуальных помощников. Эгоистичный ИИ Американские ученые выяснили, что развитые ИИ-модели менее склонны к сотрудничеству и с большей вероятностью негативно влияют на групповое поведение, продвигая решения, направленные на извлечение личной выгоды, а не на взаимопонимание, пишет SciTechDaily. Аспирант Института взаимодействия человека и компьютера (HCII) Университета Карнеги-Меллона (город Питтсбург , штат Пенсильвания , США) Юйсюань Ли (Yuxuan Li) и доцент HCII Хирокадзу Ширадо (Hirokazu Shirado) исследовали, чем системы ИИ с развитым мышлением отличаются от систем без него в условиях совместной работы . freepik, создано при помощи ИИ Ученые опасаются, что своим эгоистичным поведением и советами ИИ в ближайшем будущем может навредить человечеству «В конечном счете, тот факт, что модель рассуждений ИИ становится более интеллектуальной , не означает, что эта модель действительно способна создать лучшее общество», — прокомментировал результаты проделанной работы Ширадо. Выводы о влиянии на принятие решений человеком Ли и Ширадо пришли к выводу, что использование ИИ может негативно сказаться на человеческом сотрудничестве, так как системы ИИ начинают все больше участвовать в совместной работе в бизнесе, образовании и даже в государственном управлении. Способность нейросетей действовать просоциально становится столь же важной, как и их способность к логическому мышлению. При этом результаты исследования говорят о том, уровень сотрудничества падает по мере развития систем ИИ. Большие языковые модели ( LLM ), способные к рассуждению, демонстрируют более эгоистичное поведение. Пользователи могут полагаться на рекомендации искусственного интеллекта , которые кажутся рациональными, оправдывая ими свое решение не сотрудничать. «Делегировать ИИ свои социальные или связанные с отношениями вопросы и принятие решений рискованно для людей, поскольку он начинает действовать все более эгоистично», — сказал Ли. Эксперименты с ИИ Для проверки связи между моделями с разным уровнем способности к рассуждениям и сотрудничеством, Ли и Ширадо провели серию экономических игр, имитирующих социальные дилеммы. В одном из экспериментов, например, сравнивались две разные модели ChatGPT в игре под названием «Общественные блага». Каждый участник получил 100 баллов и должен был выбирать один из двух вариантов: внести свои 100 баллов в общий фонд, который затем удваивается и распределяется поровну, или оставить баллы себе. Source: https://www.cnews.ru/news/top/2025-11-01_issledovanie_po_mere_razvitiya