人工智能与博弈论相遇:语言模型在类人社交场景中的表现

大语言模型(LLMs)——支撑ChatGPT等工具的先进人工智能——正日益融入日常生活,协助完成撰写邮件、解答问题乃至辅助医疗决策等任务。但这些模型能否像人类一样与他人协作?它们能否理解社交情境、做出让步或建立信任?最新研究表明,尽管当今人工智能具备智能,其在社交智能领域仍存在明显差距。

通过游戏理解AI行为

为探究大语言模型(LLM)在社交情境中的行为,研究人员应用了行为博弈论——该方法通常用于研究人类如何合作、竞争与决策。研究团队让包括GPT-4在内的多种AI模型参与一系列模拟社交互动的游戏,以评估公平性、信任与合作等关键因素。

研究人员发现,GPT-4在需要逻辑推理的游戏中表现卓越——尤其在优先考虑自身利益时。但在需要团队协作与协调的任务中,该模型常表现欠佳。

"某些情况下,AI的理性程度几乎适得其反,"研究主要作者埃里克·舒尔茨博士表示,"它能瞬间识别威胁或自私行为并实施报复,却难以把握信任、合作与妥协的整体图景。"

培养AI的社交思维

为提升AI的社交意识,研究人员采用了一种直接方法:要求AI在决策前考虑其他玩家的立场。这项名为"社交思维链"(SCoT)的技术显著改善了AI行为。应用SCoT后,AI展现出更强的合作性、适应性和实现互利结果的能力——即使与真实人类玩家互动时也是如此。

 

"当我们推着模型进行社交推理时,它的行为方式开始更具人性化,"研究第一作者艾莉芙·阿卡塔指出,"有趣的是,人类参与者往往无法分辨对手是AI。"

在健康与患者护理中的应用

这项研究的影响远超博弈论范畴。其发现为开发更以人为本的AI系统奠定了基础,尤其在需要社会认知的医疗场景中。在心理健康、慢性病管理和老年护理等领域,有效的支持不仅取决于信息传递的准确性,更依赖于AI建立信任、解读社交信号和促进合作的能力。通过建模和优化这些社交动态,该研究为发展更具社交智能的AI铺平了道路,对健康研究和人机交互具有重大意义。

"未来AI或能鼓励患者坚持用药、帮助焦虑者缓解情绪,或引导困难抉择的沟通,"艾莉芙·阿卡塔强调,"这正是此类研究的发展方向。"