通过游戏理解AI行为
为探究大语言模型(LLM)在社交情境中的行为,研究人员应用了行为博弈论——该方法通常用于研究人类如何合作、竞争与决策。研究团队让包括GPT-4在内的多种AI模型参与一系列模拟社交互动的游戏,以评估公平性、信任与合作等关键因素。
研究人员发现,GPT-4在需要逻辑推理的游戏中表现卓越——尤其在优先考虑自身利益时。但在需要团队协作与协调的任务中,该模型常表现欠佳。
"某些情况下,AI的理性程度几乎适得其反,"研究主要作者埃里克·舒尔茨博士表示,"它能瞬间识别威胁或自私行为并实施报复,却难以把握信任、合作与妥协的整体图景。"
培养AI的社交思维
为提升AI的社交意识,研究人员采用了一种直接方法:要求AI在决策前考虑其他玩家的立场。这项名为"社交思维链"(SCoT)的技术显著改善了AI行为。应用SCoT后,AI展现出更强的合作性、适应性和实现互利结果的能力——即使与真实人类玩家互动时也是如此。
"当我们推着模型进行社交推理时,它的行为方式开始更具人性化,"研究第一作者艾莉芙·阿卡塔指出,"有趣的是,人类参与者往往无法分辨对手是AI。"
在健康与患者护理中的应用
这项研究的影响远超博弈论范畴。其发现为开发更以人为本的AI系统奠定了基础,尤其在需要社会认知的医疗场景中。在心理健康、慢性病管理和老年护理等领域,有效的支持不仅取决于信息传递的准确性,更依赖于AI建立信任、解读社交信号和促进合作的能力。通过建模和优化这些社交动态,该研究为发展更具社交智能的AI铺平了道路,对健康研究和人机交互具有重大意义。
"未来AI或能鼓励患者坚持用药、帮助焦虑者缓解情绪,或引导困难抉择的沟通,"艾莉芙·阿卡塔强调,"这正是此类研究的发展方向。"
Story Source:
Materialsprovided byHelmholtz Munich.Note: Content may be edited for style and length.
Journal Reference:
Elif Akata, Lion Schulz, Julian Coda-Forno, Seong Joon Oh, Matthias Bethge, Eric Schulz.Playing repeated games with large language models.Nature Human Behaviour, 2025; DOI:10.1038/s41562-025-02172-y
2025-08-02
2025-08-02
2025-08-02
2025-08-02