在医疗保健中使用人工智能的新框架考虑了医学知识、实践、程序和价值观

Health care organizations are looking to artificial intelligence (AI) tools to improve patient care, but their translation into clinical settings has been inconsistent, in part because evaluating AI in health care remains challenging. In a new article, re

医疗保健组织正在寻找人工智能(AI)工具来改善患者护理,但将其转化为临床设置是不一致的,部分原因是评估医疗保健中的AI仍然具有挑战性在新的文章中,研究人员提出了一个AI的框架工作,其中包括应用价值的实际指导,并且公司不只是工具的属性,而是系统的完整性

这篇文章由卡内基梅洛大学、患病儿童医院、达拉斯公共卫生学院、哥伦比亚大学和多伦多大学的研究人员撰写它发布在模式

“监管指南和制度方法狭隘地关注工具的性能,忽视了将血液模型整合到大型医疗实践个人系统中所必需的知识、实践和程序,”LexJohnRandon,K&;LGates CarnegieMillon的伦理和计算技术教授,他是该报告的合著者“工具不是中立的——它们反映了我们的价值观——所以它们的工作方式反映了它们工作的人员、流程和环境。”

伦敦医学院伦理与政策中心主任兼医学院伦理主任医学院技术与社会中心主任以及CMU哲学部的专家

伦敦和他的合著者提倡一种概念性的转变,在这种转变中,人工智能工具被视为一种更大的“干预组合”,基于为患者提供护理所必需的知识、实践和程序在与其他同事的回顾性工作中,伦敦将这一概念应用于制药和无人驾驶汽车该方法被称为“社会技术系统”,作者提出的框架工作旨在促进免疫系统在医疗保健中的负责任整合

这一领域的先前研究在很大程度上是描述性的,解释了人工智能系统与人类系统的相互作用伦敦及其同事提出的框架工作是积极主动的,为设计人员、资助者和用户提供了如何确保AI系统能够集成到工作流程中的指导,从而最大限度地帮助患者他们的行为可以用于监管和制度见解,以及负责任和合乎道德地评估、评估和使用人工智能工具为了说明其框架,作者申请开发用于诊断超过轻度糖尿病视网膜病变的人工智能系统

“只有极少数的模型和粗略的临床试验没有显示出任何益处,”疾病儿童医院的生物伦理学家、达拉斯公共卫生学院临床和公共卫生助理教授Elissa McCradden说,他是该研究的合著者“我们希望我们提出的框架和评估和干预监管的准备工作能够为支持信息系统的多样性所需的大量证据提供支持。”