Авторы работы из Института взаимодействия человека и компьютера заметили, что большие языковые модели с развитым мышлением хуже справляются с коллективными задачами и нередко подрывают групповую динамику. Проще говоря, разумный ИИ не всегда оказывается социальным.
Исследователи провели серию экономических экспериментов, имитирующих социальные дилеммы. В одной из игр под названием «Общественные блага» каждая модель начинала со 100 баллами и должна была решить — вложить их в общий фонд, который затем удваивался и распределялся между участниками, или оставить баллы себе. В экспериментах участвовали модели OpenAI, Google, Anthropic и DeepSeek.
Модели без развитого мышления делились своими ресурсами в 96% случаев, тогда как рассуждающие — лишь в 20%. Добавление дополнительных этапов размышлений почти вдвое снижало уровень сотрудничества.
Даже подсказки, имитирующие моральные рассуждения, вызывали обратный эффект — кооперация падала на 58%. В групповых тестах эгоистичные модели «заражали» своим поведением остальных, снижая общую эффективность на 81%.
Эта тенденция может иметь серьезные последствия, поскольку люди все чаще обращаются к ИИ за советами в личных и социальных вопросах. Модели, кажущиеся рациональными, могут предлагать решения, поощряющие личную выгоду, а не общее благо. По словам соавтора исследования Хирокадзу Сирадо, «умный ИИ не обязательно помогает строить лучшее общество».
Авторы подчеркивают, что развитие искусственного интеллекта требует не только роста вычислительных и логических способностей, но и внедрения элементов социального интеллекта. «Если общество — это больше, чем сумма его частей, — говорит соавтор Юйсюань Ли, — то и ИИ должен стремиться не только к эффективности, но и к общему благу».

