人工智能(AI)——称为人工智能——越来越多地用于医学,以改进疾病的诊断和治疗,并为患者提供不必要的筛查但是,根据包括罗切斯特医学大学和中心生物伦理学家在内的国际专家的建议,如果没有精心设计、测试和使用,那么所有的医疗器械都会对患者造成伤害,并导致死亡
JonathanHerington博士是核医学和医学成像学会的ITask Forces的成员,该学会在《核医学杂志》上发表的两篇论文中对如何科学地开发和使用人工智能医疗设备给予了高度赞扬简言之,所谓提高AI发生率和限制的透明度的任务是确保所有人都能在工作场所获得AI医疗服务,无论他们的种族、民族、性别或健康状况如何无论是否对AI开发人员进行了适当的订单设计和测试,医疗保健提供者都会对患者的AI产生长期的责任,并且在做出患者护理决策时,不应过于重视AI预测
“应该永远有一个人在工作,”URMC健康人文与生物伦理学的助理教授Herington说,他是2021年被列入任务的三位生物伦理学专家之一“临床医生应该相信Ia会参与他们自己的决策,而不是回应他们的决策。”
这需要医生深刻理解如何使用一种新的医疗设备,如何执行这项任务,以及所有的模仿——并且必须将这一知识传授给患者博士必须权衡假阳性和假阴性的相对比例,同时考虑结构上的不公平
当系统在PET扫描中识别出可能的肿瘤时,例如,医疗保健提供者必须知道该系统在识别这种特定类型的肿瘤方面的表现如何作为有问题的病人
Herington说:“这对系统的开发人员来说意味着他们需要非常透明。”根据任务,AI开发人员可能会向用户提供有关其医疗器械的趋势、临床表现和模仿的准确信息他们建议通过一种方式在设备或系统中建立警报,向用户提供有关AI管辖区不确定性的信息这可能看起来像是癌症扫描的热图,显示了这些部位是更容易还是更容易癌变
为了最大限度地减少这种不确定性,开发人员必须仔细定义他们用于训练和测试AI模型的数据,并应使用临床相关标准来评估模型的性能它并不总是验证设备或系统使用的所有算法所有的医疗患者都应该接受所谓的“无声试验”,这意味着他们的表现将由研究人员实时评估,但这些预测将不可用于医疗保健或应用于临床决策
开发人员还应设计一个有用且准确的模型,以便在其中进行部署
Herington说:“一位癌症专家认为,这些高科技、昂贵的系统已经部署在真正的高资源医院,并为相对有利的患者改善了结果,而资源不足或农村医院的患者可能无法访问这些系统,或者无法访问那些能让他们的护理变得更糟的系统。”目前,AI医疗设备正在接受拉丁美洲和黑人患者代表性不足的数据集,这意味着该设备不太可能对这些组的患者进行准确的预测为了避免深入研究中国,开发人员必须确保他们的AI模型为所有种族和年龄组重新校准,并用代表所有人口的数据集对其进行训练,医疗设备或系统将最终进行测试
考虑到这些建议是以核医学和医学衰老为重点制定的,Herington认为这些建议应该广泛应用于所有的医学疾病
Herington说:“这些系统的功率越来越大,这意味着地形变化非常快。”“我们有一个很小的关闭窗口,以确定你的道德和监管机构在这些方面的框架。”
来源:
Materials provided by
University of Rochester Medical Center. Original written by Susanne Pallo.
注明: Content may be edited for style and length.
参考:
2024-01-20
2024-01-20
2024-01-20
2024-01-20
2024-01-20