微信扫一扫 分享朋友圈

已有 670 人浏览分享

开启左侧

【患者安全】患者、医生、AI 三位一体诊断模式[转]

[复制链接]
670 0
本帖最后由 何雪峰 于 2023-8-31 08:32 编辑

Reimagining Healthcare Teams: Leveraging the Patient-Clinician-AI Triad To Improve Diagnostic Safety
编译自:AHRQ Publication  July 2023

      医疗保健中的团队合作对患者安全非常重要,包括在诊断领域。看一下以下场景:
      霍普金斯女士是一名72岁的高血压妇女,她来你的诊所做年度体检。在过去的一个月里,她的智能手表三次提醒她“心律异常”。但她没有跟你的诊所联系,因为她在“心律异常”期间没有症状。此外,她“不相信手表有诊断心脏问题的能力”。
      体检做了心电图检查,是正常的。霍普金斯女士说,她的姐姐患有心房颤动,她想知道是否需要为她姐姐做额外的检查。
      十多年前就开始呼吁采用团队医疗模式。在2012年美国医学研究所(IOM)的一份报告中,Mitchell将基于团队的医疗保健定义为:
       …由至少两名医务人员向个人、家庭和/或他们的社区提供卫生服务,这些医务人员与患者及其照护人员合作,依不同患者的喜好,在学科内和跨学科中实现共同目标,以实现整合的高质量医疗照护。

      2015年美国国家医学科学院的报告《改善医疗诊断》中强调了医疗专业人员、患者及其家人之间团队合作的重要性,以减少诊断错误。医疗团队核心成员通常仅仅是人,同时技术仅为辅助工具。然而,近年来,人工智能(AI)和机器学习(ML)在医疗保健领域取得了重大进展。人工智能是使用计算机来执行客观推理和理解型的任务。ML是人工智能的一个子域,它是用计算方法来教计算机从例子中学习。
     目前,医疗保健AI/ML在诊断方面的研究成果显著。美国食品和药物管理局(FDA)关于AI在医疗领域应用的许可越来越多,说明AI/ML在医疗保健领域的安全性和有效性。例如,FDA已经批准了可以在乳房X光照片上准确诊断乳腺癌、临床图像上的皮肤癌和眼底镜图像糖尿病视网膜病变的ML模型。将AI/ML纳入更广泛的临床实践无疑将影响医疗团队和患者之间关系。随着具有不同水平AI/ML在医疗保健中变得越来越普遍,临床医生和患者将需要学习在诊断过程中有效地与AI合作
      诊断过程发生在一个复杂的系统中,其中各部分之间的关系相互交错(图1),诊断团队通常是跨专业和跨学科的。但是,人工智能如何融入诊断团队并影响患者与临床医生的关系,仍需要更好地定义。例如,当人工智能参与诊断过程时,患者和临床医生将需要了解他们各自的责任。此外,人工智能系统的开发和实施的目的是辅助患者-临床医生诊断团队的工作,而不是阻碍它。
201.png

图1 诊断流程的工作系统

【患者与医生】
      患者与临床医生之间的关系仍然是诊断成功的关键。首先,临床医师可能没有足够的时间来询问患者病史的所有方面,以制定高质量的诊断或治疗计划。远程医疗的使用增加了一些患者与医生交流的机会,但也减少了将体检结果纳入诊断决策的机会。人工智能有机会提供解决方案,解决其中一些障碍,甚至可能加强患者与临床医生的关系。

【患者与人工智能】
      当前患者与人工智能的关系在很大程度上是智能设备(手机、手表、健身手环等)传感器功能改进的结果。医疗保健技术直接面向消费者的营销是一个不断成长的行业,可能会影响患者与临床医生的关系。可穿戴设备和医疗保健应用程序的早期使用人群往往是健康的,他们对量化自己的生理信号感兴趣。但最近更多面向消费者的可穿戴设备针对的是与医疗诊断相关。例如,Apple已经获得了FDA对Apple Watch基于AI的技术的批准,该技术可以通知用户心房颤动的存在以及他们心房颤动的频率。这些类型的技术避免了患者延误诊断的不良事件(例如,血栓栓塞性中风)。这种不在医院的监测可能会让一些患者放心,但可能会给其他人带来不必要的焦虑。
      虽然Apple Watch等技术可以提供准确的诊断和有用的数据(例如,房颤的负担),但它们也有缺点。在许多情况下,它们没有个性化患者的风险,没有考虑患者特定的背景因素,也没有解决患者对诊断和治疗的特定担忧。例如,心房颤动可以是无症状的或有症状的,可以是慢性的或阵发性的,也可以在有或没有瓣膜心脏病的情况下发生。对于没有其他危险因素的年轻男性患者,非瓣膜性房颤的年中风风险为0.2%。对于具有所有可能危险因素的老年女性患者,非瓣膜性房颤的年中风风险超过10%。这些例子也凸显了患者由于人工智能输出而经历不必要的安抚或警报的可能性。
      人工智能为患者提供了好处,但目前仍存在差距,在患者-人工智能关系中充当中间人的临床医生最能有效地解决这一问题。
      如上所述,不同角色与AI配合诊断都带来了他们独特的视角和技能来解决问题。每一对都有明显的优点和局限性。形成患者-临床医生-AI(PCA)组合可以解决任何二元组合遗留的问题(图2)。
202.png
图2 患者-临床医生-AI诊断团队
      随着人工智能算法的激增,诊断团队的结构和功能正在发生变化。例如,临床医生正在接受集成到电子健康记录(EHR)的模型的支持,例如针对脓毒症的目标实时预警系统(TREWS)。临床医生不仅将使用嵌入EHR中的基于AI的诊断决策支持,而且,还将与具有使用AI算法的医疗保健应用程序的患者进行交互。因此,临床医生必须开始考虑人工智能将如何告知他们的诊断决策,以及这个新的合作伙伴将如何影响他们与患者的关系。

【共同目标】
      在PCA团队中,建立诊断目标的过程从患者和临床医生之间的双向交流转变为三方交流。在三方交流中,患者和临床医生从人工智能系统接收信息,人工智能系统从患者和临床医生接收信息,患者和临床医生相互接收信息。PCA诊断团队的每个成员都有自己独特的目标。例如,临床医生的目标可能包括提供安全、有效、循证的医疗照护。同样,人工智能算法的理想设计目标是有效执行特定任务(如识别心律失常),通常很少考虑患者或临床医生的所处的特定环境。患者的价值观、偏好和环境应该为团队目标的建立提供基础。病人、患者家属或其他看护人员必须乐于描述他们的特殊情况和愿望。临床医生应该善于以患者为中心的沟通,从而有效地引导这些对话。此外,人工智能的设计和部署应有利于实现特定的诊断目标。最终,临床医生将负责确保每个团队成员的目标都经过仔细考虑,并确保团队的共同目标是将患者的价值观、偏好和环境相结合。

【明确角色】
      清晰、具体地描述PCA中的角色对团队的成功至关重要。在大多数情况下,当患者注意到特定的症状或体征时,告诉医生,就触发了诊断过程。越来越多的诊断过程可能由患者佩戴的AI设备触发。
      理想情况下,这些AI警报将引导患者接触医疗系统,并提供准确和及时诊断和治疗其健康问题所需的信息。例如,患者的智能手表可能会通知患者他们正发生心动过速或心率异常。在这种情况下,临床医生需要熟悉人工智能算法的有效性、可靠性和预期使用,以及患者所处环境,以确定是否需要额外的评估。
      虽然应该保留病人和临床医生的自主权,但根据诊断问题的不同,人工智能将拥有不同程度的自主权。此外,在某些情况下,人工智能可以独立于临床医生提供诊断。基于人工智能的糖尿病视网膜病变系统是完全自主模型的一个例子,它可以在没有临床医生从头到尾读完的情况下就能自主诊断糖尿病视网膜病变。
      另外一种算法可以提醒临床医生提高诊断的概率,从而更有效地对问题进行分诊和诊断。例如,一种基于人工智能的系统设计用于识别CT图像上的颅内出血,可能会导致放射科医生优先考虑早期阅读高风险CT扫描。患者、临床医生和开发人员将需要灵活和有能力适应角色的变化。例如,参考前面的例子,可以想象人工智能直接通知临床医生可操作的信息,从而实现更有效的诊断。

【相互信任】
      如果团队成员之间没有建立信任,那么分配角色可能是徒劳的。在PCA三元组中,患者和临床医生之间需要相互信任,患者和临床医生需要信任人工智能系统对诊断过程做出有意义贡献的能力。如何在人工智能和患者/临床医生之间建立信任是一个活跃的研究领域。
      Rojas和他的同事建议临床医生信任人工智能系统的公平性、透明度和性能。美国卫生信息技术协调办公室最近提出了HTI-1规则,该规则要求使用人工智能的临床决策系统的用户能够获得三个基本问题的答案。即(1)什么数据被用来训练算法?(2)如何使用、更新和维护预测算法?(3)如果可用,在测试和本地数据中使用公平性度量,算法是如何执行的?如上所述,在某些情况下,临床医生会向患者介绍诊断性人工智能算法。患者会将基于人工智能的新技术反馈给临床医生。无论由谁发起,临床医生都需要培养技能,批判性地评估基于人工智能的诊断系统,并就其使用提出建议。因此,需要进行前瞻性研究,证明人工智能系统的可靠性、有效性以及对重要患者预后的积极影响。
      与其他医疗干预措施一样,如果患者不相信推荐人工智能技术的商家,或不相信技术本身,他们就不太可能遵守包含人工智能的计划。这种感觉在历史上被边缘化的群体中尤为普遍。正如Obermeyer和他的同事所描述的那样,一种广泛使用的算法显示出了明显的种族偏见,因为尽管黑人患者的病情更严重,它仍然不成比例地建议为白人患者提供额外的帮助。为了减轻偏见和增加患者的信任,在算法的开发和实施过程中必须使用严格的策略。同样,临床医生在将基于人工智能的技术推荐给患者之前,也需要相信它们是安全有效的。此外,临床医生必须相信病人是他们的经验、背景和价值观的专家所有团队成员之间的有效沟通对于发展相互信任至关重要,这对于PCA团队的最佳运作是必要的。

【有效沟通】
      人类和人工智能之间的交流有多种形式。例如,患者可以通过说话与人工智能系统交流;向系统输入文本、照片或其他类型的数据;或者使用可穿戴设备(如智能手表)来提供持续的监控。人工智能通过输出警报、提醒、概率、诊断、建议或干预的形式进行交流。人工智能与患者的沟通将取决于其目的、目标和FDA的分类。
      2022年秋,FDA提供了关于将软件指定为医疗设备(SaMD)的最新指南以前,大多数EHR软件不符合SaMD标准。然而,这种情况正在改变,作为医疗保健通信中心的电子病历越来越多地采用基于人工智能的预测算法,旨在增强诊断决策。临床医生与诊断AI算法的交互将主要通过电子病历或患者拥有的可穿戴设备进行。开发人员和卫生系统领导者应该谨慎行事,以避免增加人工智能,使本已不堪重负的电子病历工作变得难以管理。患者和临床医生应该能够与人工智能进行无缝沟通。因此,任何开发或实现这些模型的人都应该考虑可用性。如果这些技术严重扰乱了患者的生活方式或临床工作流程,患者和临床医生就不太可能接触这些潜在有用的技术,从而造成不便和效率低下。此外,人工智能输出应该以清晰、简洁和以用户为中心的方式,在正确的时间、以适当的频率向患者和临床医生展示。合适的输出信号可能会有助于避免由于使用不当或不适当而导致的诊断错误。

【测量结果和过程】
      定期重新评估PCA诊断小组的结构和功能,患者和临床医生可以在随访期间或通过患者或临床医生发起的门户通信来解决这个问题。另一种选择是与医疗团队的其他成员(如护士、医疗助理、药剂师)讨论该问题。患者应该有机会通过患者满意度调查向临床医生和医疗保健组织提供匿名反馈。团队的效率应该基于诊断过程开始时设定的共同目标来衡量。团队应考虑患者、临床医生和AI相关因素,这些因素对诊断过程有积极或消极的影响。在可能的情况下,团队成员应该互相分享深思熟虑的、建设性的反馈。临床医生应该乐于与卫生系统领导层就人工智能的表现进行沟通。这种反馈可能会导致模型性能和可用性的改进。
      最终,随着人工智能系统的学习和适应,反馈也可以直接提供给它。就像上面提到的,人工智能可能会为临床医生提供反馈,告诉他们如何改善对病人的护理。其目标是通过每个团队成员的集体贡献来增强诊断团队的绩效,从而能够对患者的医疗问题进行高效和有效的诊断。因此,卫生系统和临床医生应根据诊断程序,从PCA诊断小组的诊断错误中吸取教训。
      在将人工智能算法整合到诊断团队的过程中,必须解决几个潜在的障碍。例如,漏诊、不准确或延迟诊断的责任是一个活跃的讨论领域此外,在诊断过程中使用人工智能算法报销策略也在不断发展。最后,必须注意到,个人可能会受到算法产生的偏见和无法平等获得有效算法的负面影响。解决这些挑战需要诊断系统的所有成员的参与(图3)。
203.png
图3诊断生态系统:影响诊断决策的因素
【结论】
      本概要建立在基于团队的医疗照护框架之上,描述了如何将人工智能集成到诊断团队中。我们必须仔细思考如何将安全有效的人工智能纳入诊断团队。虽然PCA诊断团队的结构和功能尚未明确,但人工智能已准备好成为诊断团队的重要成员。因此,患者和临床医生将需要学会利用人工智能的好处并了解其局限性,而不是将其视为他们关系中的“电灯泡”随着考虑PCA诊断团队的框架,以确保这些团队是高效的,实现提高诊断安全性的目标。


翻译:任靖文 重庆医科大学2023级泌尿博士
审校:肖明朝 重庆医科大学附属第一医院

举报 使用道具

回复
您需要登录后才可以回帖 登录 | 立即注册 微信登录

本版积分规则

4

关注

2

粉丝

172

主题

Archiver|手机版|小黑屋|科进医疗安全知识库 ( 粤ICP备18035733号-1 )

GMT+8, 2024-9-19 23:58 , Processed in 0.052271 second(s), 28 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.