当前位置:首页 > 医疗资讯 >

人工智能(AI)诊断的法律规则--AI诊断的主体是人还是机器?

2017-08-07   浏览量:  文章来源: 未知

核心提示:自从谷歌推出的人工智能(AI)“alphago”连续战胜世界最顶尖围棋高手柯洁、李世石等之后,具有深度学习功能的AI如同核当量级爆炸一般在产业界、资本界引发巨澜。最近半年以来,“人工智能+某某”频出媒体:人工智能+医疗,人工智能+法律,人工智能+会计,人工智能+教育.....,以上尤以人工智能+医疗最为引人注目,谷歌在停止开发人工智能围棋项目之后,率先进入的领域也是医

  自从谷歌推出的人工智能(AI)“alphago”连续战胜世界最顶尖围棋高手柯洁、李世石等之后,具有深度学习功能的AI如同核当量级爆炸一般在产业界、资本界引发巨澜。最近半年以来,“人工智能+某某”频出媒体:人工智能+医疗,人工智能+法律,人工智能+会计,人工智能+教育.....,以上尤以人工智能+医疗最为引人注目,谷歌在停止开发人工智能围棋项目之后,率先进入的领域也是医疗领域。

  医疗领域最易开展人工智能应用的是图像分析。图像分析在医疗诊断中有特殊地位,许多疾病的诊断依靠图像,如皮肤病图谱,眼底病图谱,病理显微图片,X线、CT、MRI、B超成像,心电图,等等。现有图像数据分析的分辨力可以达到0.01mm,与医疗图像的肉眼分辨水准相当,如果结合人工智能的深度学习功能,以机器代替人类进行图像的医学诊断不是没有可能。

  据最近的几篇文章披露,人工智能在特定疾病的图像诊断如肺结节的CT诊断、甲状腺癌乳腺癌的病理诊断、单导联的心律失常心电图诊断等方面,已经达到或接近一名普通主治医生的诊断水平。需要注意的是,具有深度学习功能的人工智能的基本特征是自我学习,也就是只要通过人工标注教会了电脑识别特征性标志的能力,当基础数据达到一定程度比如100万张图谱时,电脑可以脱离人类而不断自我学习、自我否定,无限接近正确水平。所谓自我学习,亦即电脑可以自我创造海量的新的疾病图谱,这种创造可能达到每天数百万张图谱,比如可以创造出现有疾病图谱库里不曾有过的肺结节CT图像,然后对照既往的图像数据而进行自我诊断、自我修正,这种自我创造、自我修正能力当然有利于疾病的诊断。

  不排除,AI在自我学习中创造出来的某一张肺结节CT图像恰好符合未来某一个病人的肺CT特征,并提前作出诊断,也就是未卜先知。未卜先知,我不知道人类能否做到,但至少在某些领域,电脑可以做到。这其中的哲学玄机,偏离了本文主题,我无意再深究下去。

  获得学习能力的AI,其诊断水平可以在短时间内光速提高,现有临床规培、专培的培养速度与之完全不能比拟。AI系根据概率而作出诊断,比如某个肺结节CT图像符合中央型肺癌的概率达到90%即诊断为肺癌,某个心电图图谱符合预激综合征的概率达到99%而诊断为预激综合征,或者某个图谱不具有任何现有疾病特征而从概率上排除疾病而诊断为无明显异常或符合正常。这种依据概率作出的诊断符合一般临床医学规律,临床影像医生的诊断往往也描述为“印象是.....”,“考虑为......”,”符合.....”,””......病的可能性大”,这其实亦是一种概率,只不过是人为估算、心证的概率,因此AI的诊断达到一定标准时,完全可以、也应当替代医生的诊断,否则开发人工智能诊断失去价值。

  既然AI诊断是一种医学诊断,可直接代替医生应用于临床,则直接影响病人的生命健康,因此法律规制殊显重要。作为一名医疗诉讼专业律师,我认为考察AI诊断的法律原则时,至少应包括以下四个问题:

  一 做出AI诊断的主体在法律上是人(医生)还是物(医疗器械)?

  二 AI诊断进入临床应用的法律标准是什么?

  三 AI诊断出现缺陷或医疗过失的判断依据是什么?

  四 AI诊断发生医疗损害,谁应承担法律责任?