通过跨学科的合作与交流,我们能够突破传统思维的边界,开拓新的研究领域。

——院长致词

首页 > 科学研究 > 生活

人们同情被欺负的AI聊天机器人

本站发布时间:2025-06-22 20:19:55
注:部分名称可能翻译不全,如有问题可联系15163559288@163.com

研究人员表示,这项使用虚拟投球游戏的研究突显了人类将AI智能体视为社会实体的倾向——在设计AI机器人时应考虑这一倾向。

该研究发表于《人类行为与新兴技术》期刊。

来自帝国理工学院戴森设计工程学院的第一作者周嘉楠(音译)表示:"这为人类与AI的互动提供了独特见解,对其设计及人类心理学都具有激动人心的意义。"

如今人们在获取服务时越来越多地需要与AI虚拟智能体互动,许多人还将其作为社交陪伴对象。然而这些发现表明,开发者应避免将智能体设计得过度拟人化。

同样来自帝国理工学院戴森设计工程学院的高级作者Nejra van Zalk博士指出:"少量但不断增长的研究显示,关于人类是否将AI虚拟智能体视为社会实体存在矛盾结论。这引发了关于人类如何认知和与这些智能体互动的重要问题。

"我们的结果表明参与者倾向于将AI虚拟智能体视为社会实体,因为当他们感觉AI被排斥时,会试图将其纳入投球游戏中。这在人际互动中很常见,尽管参与者明知自己是在向虚拟智能体投球,仍表现出相同倾向。有趣的是,这种效应在年长参与者中更为显著。"

人们厌恶排斥行为——即使针对AI

 

感受同理心并对不公采取纠正措施似乎是多数人类与生俱来的特质。先前不涉及AI的研究发现,人们倾向于通过增加传球频率来补偿被排斥对象,且通常厌恶排斥行为的实施者,同时对目标对象产生偏好与同情。

为开展研究,研究人员观察了244名人类参与者在"网络投球"游戏中的反应——当目睹AI虚拟智能体被另一名人类玩家排斥时(该游戏中玩家通过屏幕互相传递虚拟球)。参与者年龄分布在18至62岁之间。

部分游戏中,非参与者人类向AI机器人投送了公平次数的球;而在另一些游戏中,非参与者人类仅向参与者传球,公然排斥机器人。

研究人员通过观察和后续问卷调查测试参与者是否倾向在被不公平对待后偏爱向机器人传球,并探究其缘由。

他们发现多数情况下,参与者会通过偏向给机器人传球来纠正这种不公。年长参与者更易感知到不公平现象。

人类警示

研究人员指出,随着AI虚拟智能体在协作任务中日益普及,与人类互动的增加可能提升熟悉度并触发自动处理机制。这意味着用户可能会本能地将虚拟智能体视为真实团队成员并进行社交互动。

 

他们认为这对于工作协作可能是优势,但在虚拟智能体被用作替代人际关系的朋友,或作为身心健康的顾问时则可能引发担忧。

周嘉楠表示:"开发者可通过避免设计过度拟人化的智能体,帮助人们区分虚拟与现实互动。还可针对特定年龄段定制设计,例如考虑人类不同特征如何影响认知。"

研究人员指出"网络投球"可能无法代表现实中的人类互动模式(通常通过聊天机器人或语音助手的文字/语言交流实现)。这可能与部分参与者的使用预期冲突,引发陌生感进而影响实验反应。

因此,他们正在设计新实验:在不同情境(如实验室或休闲场景)中测试人与智能体的面对面对话,以验证研究成果的适用边界。

Story Source:

Materialsprovided byImperial College London. Original written by Caroline Brogan.Note: Content may be edited for style and length.

Journal Reference:

Jianan Zhou, Talya Porat, Nejra van Zalk.Humans Mindlessly Treat AI Virtual Agents as Social Beings, but This Tendency Diminishes Among the Young: Evidence From a Cyberball Experiment.Human Behavior and Emerging Technologies, 2024; 2024 (1) DOI:10.1155/2024/8864909

排行榜

备案号:京ICP备2023036195号-1

地址:北京市丰台区南三环西路16号2号楼

地址:山东省济南市历城区唐冶绿地汇中心36号楼

电话: 400-635-0567

北前院微信公众号