基于有限的临床数据,数百种医疗算法已被批准。科学家们正在讨论由谁来测试这些工具,以及如何最好地进行测试。
谁在测试医疗 AI 系统?
基于 AI 的医疗应用,例如 Singh 正在开发的应用,通常被药品监管机构视为医疗设备,包括美国 FDA 和英国药品和保健产品监管局。因此,审查和授权使用的标准通常不如药物标准严格。只有一小部分设备(可能对患者构成高风险的设备)需要临床试验数据才能获得批准。
许多人认为门槛太低了。当费城宾夕法尼亚大学的重症监护医生 Gary Weissman 审查其领域内 FDA 批准的 AI 设备时,他发现,在他确定的十种设备中,只有三种在授权中引用了已发布的数据。只有四个提到了安全评估,没有一个包括偏见评估,该评估分析该工具的结果是否对不同患者群体公平。「令人担忧的是,这些设备确实可以并且确实会影响床边护理。」他说,「患者的生命可能取决于这些决定。」
缺乏数据使得医院和医疗系统在决定是否使用这些技术时处于困境。在某些情况下,财务激励措施会发挥作用。例如,在美国,健康保险计划已经为医院使用某些医疗 AI 设备提供报销,这使得它们在经济上具有吸引力。这些机构也可能倾向于采用承诺节省成本的 AI 工具,即使它们不一定能改善患者护理。
Ouyang 说,这些激励措施可能会阻止 AI 公司投资临床试验。「对于许多商业企业来说,你可以想象,他们会更加努力地确保他们的 AI 工具可以报销。」他说。
不同市场的情况可能有所不同。例如,在英国,由政府资助的全国性健康计划可能会在医疗中心购买特定产品之前设置更高的证据门槛,英国伯明翰大学研究人工智能负责任创新的临床研究员 Xiaoxuan Liu 说,「这样,企业就有动力进行临床试验。」
一旦医院购买了人工智能产品,他们就不需要进行进一步的测试,可以像使用其他软件一样立即使用它。然而,一些机构认识到,监管部门的批准并不能保证该设备真正有益。所以他们选择自己测试。Ouyang 说,目前许多这样的努力都是由学术医疗中心进行和资助的。
阿姆斯特丹大学医学中心重症监护医学主任 Alexander Vlaar 和同一机构的麻醉师 Denise Veelo 于 2017 年开始了一项这样的尝试。他们的目标是测试一种旨在预测手术期间低血压发生的算法。这种被称为术中低血压的状况可能导致危及生命的并发症,如心肌损伤、心脏病发作和急性肾衰竭,甚至死亡。
该算法由位于加利福尼亚州的 Edwards Lifesciences 公司开发,使用动脉波形数据——急诊科或重症监护室监视器上显示的带有波峰和波谷的红线。该方法可以在低血压发生前几分钟预测到它,从而实现早期干预。
目前,大多数医疗人工智能工具可帮助医疗保健专业人员进行筛查、诊断或制定治疗计划。患者可能并不知道这些技术正在接受测试或常规用于他们的护理,而且目前任何国家都没有要求医疗服务提供商披露这一点。
关于应该告诉患者什么有关人工智能技术的争论仍在继续。其中一些应用程序将患者同意的问题推到了开发人员关注的焦点。Singh 团队正在开发的人工智能设备就是这种情况,该设备旨在简化 SickKids 急诊室对儿童的护理。
这项技术的显著不同之处在于,它将临床医生从整个过程中移除,让孩子(或者他们的父母或监护人)成为最终用户。
「该工具的作用是获取紧急分类数据,做出预测,并让家长直接批准——是或否——是否可以对孩子进行检测。」Singh 说。这减轻了临床医生的负担,加速了整个过程。但也带来了许多前所未有的问题。如果患者出现问题,谁来负责?如果进行了不必要的检查,谁来支付费用?
「我们需要以自动化的方式获得家属的知情同意。」Singh 表示,而且同意必须是可靠和真实的。「这不能像你注册社交媒体时那样,有 20 页小字,你只需点击接受。」
在 Singh 和他的同事等待资金开始对患者进行试验的同时,该团队正在与法律专家合作,并让该国的监管机构加拿大卫生部参与审查其提案并考虑监管影响。计算机科学家、SickKids 儿童医学人工智能计划联合主席 Anna Goldenberg 表示,目前,「监管方面的情况有点像西部荒野」。
寻找解决方案医疗机构审慎采用 AI 工具,进行自主测试。
成本因素促使研究人员和医疗机构探索替代方案。
大型医疗机构难度较小,小型机构面临更大挑战。
梅奥诊所测试 AI 工具,面向社区医疗机构使用。
健康 AI 联盟成立保障实验室,评估模型。
杜克大学提出内部测试能力,本地验证 AI 模型。
放射科医生 Nina Kottler 强调本地验证的重要性。
人为主因素需重视,确保人工智能和最终用户准确性。
参考内容:https://www.nature.com/articles/d41586-024-02675-0
以上是Nature观点,人工智能在医学中的测试一片混乱,应该怎么做?的详细内容。更多信息请关注PHP中文网其他相关文章!