人工智能(AI)登场了。
从情绪追踪器到模拟人类治疗师的聊天机器人,各类AI心理健康应用正在市场上激增。尽管它们可能提供一种廉价且便捷的方式来填补我们系统中的空白,但过度依赖AI进行心理健康护理——尤其是对儿童——引发了伦理担忧。
大多数AI心理健康应用未经监管且为成人设计,但关于将其用于儿童的讨论日益增多。罗切斯特大学医学中心(URMC)健康人文与生命伦理学助理教授Bryanna Moore博士希望确保这些讨论包含伦理考量。
"没有人讨论儿童的特殊性——他们的思维运作方式、他们如何融入家庭单元、他们的决策有何不同,"Moore在最近发表于《儿科学杂志》的评论文章中表达了这些关切。"儿童尤其脆弱。他们的社交、情感和认知发展正处于与成人不同的阶段。"
事实上,AI心理健康聊天机器人可能损害儿童的社交发展。有证据表明,儿童认为机器人具有"道德地位和心智生命",这引发担忧:儿童(尤其是幼童)可能对聊天机器人产生情感依赖,从而牺牲与人类建立健康关系的机会。
儿童的社交环境——他们与家人及同伴的关系——对其心理健康至关重要。这正是儿科治疗师不会孤立治疗儿童的原因。他们会观察儿童的家庭和社交关系,以确保儿童安全,并将家庭成员纳入治疗过程。AI聊天机器人无法获取这些重要的背景信息,可能在儿童面临危险时错失干预良机。
AI聊天机器人——乃至整个AI系统——也往往加剧现有的健康不平等。
"AI的效果取决于其训练数据的质量。要构建适用于所有人的系统,必须使用代表全人群的数据,"评论文章合著者、哲学系及健康人文与生命伦理学系助理教授Jonathan Herington博士指出。"遗憾的是,若不付出极其谨慎的努力构建代表性数据集,这些AI聊天机器人将无法服务所有人。"
儿童的性别、种族、民族、居住地及家庭相对财富水平,都会影响其遭遇不良童年经历(如虐待、忽视、亲人入狱,或目睹家庭/社区中的暴力、药物滥用或精神疾病)的风险。经历这些事件的儿童更需要强化心理健康护理,却更难以获得相应服务。
"经济条件较差的儿童可能负担不起人际治疗,从而依赖这些AI聊天机器人作为替代,"Herington表示。"AI聊天机器人可能成为有价值的工具,但绝不应取代人际治疗。"
目前大多数AI治疗聊天机器人不受监管。美国食品药品监督管理局仅批准了一款基于AI的心理健康应用用于治疗成人重度抑郁症。缺乏监管意味着无法防范滥用、漏报,以及训练数据或用户访问中的不平等问题。
"有太多悬而未决的问题尚未得到解答或明确阐述,"Moore强调。"我们并非主张摒弃这项技术。我们并非要求取消AI或治疗机器人。我们呼吁在使用时需审慎思考,尤其是涉及儿童及其心理健康护理这类群体时。"
Moore和Herington与纽约州立大学上州医科大学生物伦理与人文中心副教授Serife Tekin博士合作撰写了本评论。Tekin的研究领域涵盖精神病学哲学、认知科学以及医学中应用AI的生命伦理学。
展望未来,该团队希望与开发者合作,以更深入理解他们如何开发基于AI的治疗聊天机器人。他们尤其希望了解开发者是否及如何将伦理或安全考量融入开发过程,以及他们的AI模型在多大程度上参考了与儿童、青少年、父母、儿科医生或治疗师相关的研究及互动成果。
Story Source:
Materialsprovided byUniversity of Rochester Medical Center. Original written by Susanne Pallo.Note: Content may be edited for style and length.
Journal Reference:
Bryanna Moore, Jonathan Herington, Şerife Tekin.The Integration of Artificial Intelligence-Powered Psychotherapy Chatbots in Pediatric Care: Scaffold or Substitute?The Journal of Pediatrics, 2025; 280: 114509 DOI:10.1016/j.jpeds.2025.114509
2025-08-03
2025-08-03
2025-08-03
2025-08-03
2025-08-03