三星彩票

当医生使用医疗AI时,何时可能会被追究责任?


三星彩票网编译整理自Potential Liability for Physicians Using Artificial Intelligence

 abe1eea3ca79fc28-c577ebdcb0f3dbcc-c65b20af419562b2a2d0d91ecea90580.jpg

近年来,人工智能(artificial intelligenceAI)正以迅雷不及掩耳之势进军医疗领域,尤其是以基于机器学习(machine learning)的形式,整个行业似乎充满着希望之光但又不乏炒作的质疑声[1]。目前,多种基于AI的医疗产品已获得FDA的批准,且越来越多的卫生系统和医院开始部署开展基于AI系统的探索性工作[2]。例如,医疗AI可以支持临床决策,比如推荐药物或剂量或影像读片[2]。与大多数传统临床决策支持软件不同的是,某些医疗AI可能会向诊疗护理团队传达结果或建议,而无法传递导致这些结果的根本原因[3]。

值得关注的是,医疗AI可能会在不适当的环境中,使用不完善的技术或在不完整的数据上接受培训。因此,即使尽可能好地训练算法,医疗AI也可能出现漏诊或建议不适当的药物或不正确的剂量等现象而导致患者受伤。鉴于此,我们将讨论当医生使用医疗AI时,根据现行法律何时可能会被追究责任。

医疗AI与医生责任

一般情况下,为避免医疗事故责任,医生必须在可利用资源的前提下,在同一专业范围内提供与合格医生同等水平的医疗服务[4]。但当涉及AI算法推荐时,情况将变得更加复杂。在某种程度上,由于AI对于临床医学而言是新生事物,因此基本上没有涉及医疗AI责任的判例法。尽管如此,我们可以从更一般的侵权法原则中来了解现行法律可能会如何处理这些情况。

下图展示了简单交互的潜在结果。例如,当医疗AI为卵巢癌患者推荐药物和剂量时,假设该患者的治疗标准是每3周服用一次贝伐单抗化疗药物15 mg/kg

1.png

与临床医学中AI使用相关的潜在法律结果示例

第一个问题(第2列)是AI的建议。为简化起见,假设AI提出了2条建议中的1条(临床实践中可能有更多建议):卵巢癌治疗标准剂量或更高剂量为每375 mg / kg

AI可能是正确的,也可能是不正确的(第3列)。尽管每3周15 mg / kg是卵巢癌治疗的标准剂量,但也许出于某些原因,较高的剂量更适合该患者。这种建议将更符合医疗AI的目标之一,即个性化治疗。

接下来,医生可以遵循或拒绝医疗AI的建议(第4列)。 在这个例子中,医生保留此酌处权,尽管将来卫生系统或支付方可能会限制医生的酌处权。

5列代表患者结果。如果医生遵循正确的建议或拒绝不正确的建议,则结果良好;反之,则结果较差(在这个非常典型的示例中)。

结果有8种可能的情况(第6列)。法律将区别对待,理解这些区别对待主要取决于美国侵权法的基本要素。首先,如果患者没有受到伤害,医生将不承担任何责任(图中的绿色框);无论是因为医生接受正确的建议(方案15)还是拒绝不正确的建议(方案48),这都是好结果。

其次,侵权法通常优先考虑治疗标准,而不考虑其在特定情况下的有效性,即提供的医疗服务会导致好结果还是坏结果。当医生遵循治疗标准(例如每315 mg/kg贝伐单抗;方案1368)时,他们通常也不会承担不良后果的责任,即使采取不同的治疗措施,对于特定患者在特定情况下会更好(图中的黄色框)。

因此,根据现行法律,只有当医生不遵守治疗标准并导致患者受到伤害时,才承担相关责任(图中红色框)。

该图表分析表明,对于使用医疗AI来辅助做出临床决定的医生而言,这具有重要意义。由于现行法律保护医生在遵循医疗标准的情况下免于承担责任,因此从责任角度来看,使用医疗AI“最安全”的方法是将其视作支持现有决策过程的确认工具,而不是看作是改善医疗的主宰者。

尽管很多医生对此方法可能感到满意,但挑战在于现行法律却是激励医生将人工智能的潜在价值降低。如果医疗AI提供的医疗服务比医生更好,例如建议使用更高剂量的药物,或将出现不同于医生的结果。如果将来某些医疗AI的表现比最好的医生更好,这种差异将会加剧,这是某些算法的目标。但是,由于责任威胁会鼓励医生达到并遵循治疗标准,医生可能会拒绝这样的建议,从而无法实现医疗AI的全部价值,在某些情况下可能对患者不利。

疾病治疗的法律标准是医疗AI责任的关键,但并非永远固定不变。随着时间的流逝,疾病治疗标准可能会发生变化。如果临床医学达到AI成为医疗标准的一部分,会发生什么[4]?如果发生这样的情况,方案67(图中的斜体文字)可能会发生重大变化:医生可能会因拒绝接受正确但不标准的AI建议而承担责任,反之,如果他们遵循错误的AI建议,则可能避免责任。由于侵权法在本质上是保守的,因此第二种选择(方案7)是更有可能的第一步:在医生因拒绝医学AI建议而被追究责任之前,依靠医疗AI而偏离已知的疾病治疗标准可能是对责任的辩护。但是医生应该注意这个空间,因为它可能会迅速变化。

医生应该怎么做?

医生在形成责任问题中扮演着重要角色。在医学临床中,医生应学习如何更好地使用和解释AI算法,包括在什么情况下应使用可用的医学AI,以及应该对AI算法建议持有多大的信任度。这是一个挑战,评估工具仍在开发中。

医生还应鼓励其专业组织采取积极的措施来评估临床特定的算法。FDA的审查将提供一定的质量保证,但社会有能力提供额外的指导方案来评估处于应用状态的医疗AI产品,并评估针对每位患者的AI建议。与临床指南的相似性很强,社会可以指导特定干预措施的疾病治疗标准,也可以指导可靠、安全、有效地采用和使用医疗AI

作为整体医疗环境的一部分,例如在医院和卫生系统中,医生还应确保开发和部署算法的管理工作能够反映临床中真正需要的内容。当采购AI产品时,医生应提倡采取安全措施,以确保这些产品在采购前经过严格审查,就像其他新型医疗设备一样。

此外,医生应与医疗事故保险公司仔细检查核对,以确定保险公司在临床中如何涵盖医疗AI的使用。依靠医疗AI建议的治疗是否与没有此类建议的治疗相同,或者保险公司是否以不同的方式对待此类做法?对于提供很少或根本没有推理的更加不透明的算法,临床实践是否有所不同?总体而言,医生及其医院可以要求改变保险范围,以更好地适应未来医疗AI技术的需求。

尽管当前有关医生责任和医疗AI的法律很复杂,但随着人们不断深入认识医生责任只是更大的责任生态系统中的一部分,这个问题或将变得更加复杂。购买和使用医疗AI的医院、医疗AI的制造商甚至可能是支付方都可能面临赔偿责任[5]。图中概述的情况以及此处强调的基本问题在每种责任形式中重复出现并相互影响。此外,法律可能会改变,除了AI可能成为疾病治疗标准(可能是通过普通法律演变而来的)外,立法机关还可以采取不同的规则,如目前为遭受疫苗伤害的接种者提供赔偿的无过失系统。

随着AI进入临床医疗,医生需要知道法律将如何为算法和医生之间的交互作用所产生的伤害分配责任。这些问题终究会出现,或早或晚而已。

 

参考文献;

[1] Emanuel  EJ, Wachter  RM.  Artificial intelligence in health care: will the value match the hype?  JAMA. 2019;321(23):2281-2282. doi:10.1001/jama.2019.4914

[2] Topol  EJ.  High-performance medicine: the convergence of human and artificial intelligence.  Nat Med. 2019;25(1):44-56. doi:10.1038/s41591-018-0300-7

[3] Burrell  J。  How the machine “thinks”: understanding opacity in machine learning algorithms。  Big Data Soc。 2016;3:2053951715622512。 doi:10。1177/2053951715622512

[4] Froomkin  AM, Kerr  I, Pineau  J.  When AIs outperform doctors: confronting the challenges of a tort-induced over-reliance on machine learning.  Ariz Law Rev. 2019;61:33-99.

[5] Price  WN。 Medical malpractice and black-box medicine。 In: Cohen  IG, Fernandez Lynch  H, Vayena  E, Gasser  U, eds。  Big Data, Health Law, and Bioethics。 Cambridge, England: Cambridge University Press; 2018:295-306。 doi:10。1017/9781108147972。027