智能应用 影音

机器学习加实证医学的AI智能医院

2019/11/21 - DIGITIMES企划

现今,机器学习形式的AI已大量运用在各行业,医疗照护也搭上这波风潮,彰化基督教医院许天成主任以该院评估某电脑断层(CT)的AI应用为例说明,医院期望导入一个国外具有FDA认证针对肺部CT的AI系统,该系统宣称肺结节侦测的速度提高26%,并能降低29%会错失的伪阴性结节,但医师实际测试的结果是,此软件与CT仪器随机CAD软件比较起来,敏感度虽有提升,但影像处理时间较长且须另外付费,系统导入也须改变流程。除了彰基院内的案例,许天成也引用了某社群媒体群组内不同医院多位医师对AI质疑的对话,显示出机器学习型的AI在医疗应用上并非完全无问题。

为何机器学习已然成为各行各业寻求数码转型的一大显学,但在急性医疗上却还在摸索呢?许天成举例,医疗影像判读的应用来自于近年类神经网络技术在影像视觉上的重大发展,日常生活的影像识别已建立大量的公开影像库,像是ImageNet,但医学影像却难以大量取得,然而机器学习就是需要大量数据进行学习的一种方法论,因此在数据面而言就相对不足。

机器学习应用在自然语言处理也有重大的发展,但在医学上由于每位医师学习养成的过程不同,病历书写的风格也不同,机器学习要读取不同风格的病历,还得要逐一训练,虽然不是做不到,但却是一项琐碎而不易执行的工作。

另外,目前各国审查医疗器材认证,送审时的参数是不能再变更的,例如美国的FDA和台湾的TFDA,机器学习AI产品如果要送审认证就不能再更改参数,这也违背机器学习的基本运作原理,因此认证制度也需要调整才能跟上这波机器学习的需求。

根据MIT某在线讲程指出,当前深度学习(Deep Learning)有不少限制,包括:需要大量数据、需要大量的计算能量、很容易被对抗例(Adversarial Example)愚弄、会受演算法的偏差影响、拙于表达不确定性、是无法解译的黑盒子,让人难以信任,以及常常需要专家知识去设计并微调架构等等。深度学习的不具泛化性(Generalization),以及不可解释性(Interpretability)是医疗应用上的两大顾忌。

许天成归纳了两大观察,首先他发现几个趋势与现象,包括:基于机器学习的AI有机会逐渐成熟;医院会自研或与产业合作;这是一个降低医疗不确定性之战,意思是人和机器学习之间的取舍,人在医疗判断上有不确定性,经验丰富的医师准确性比较高,资历较浅的医师或许比较没那麽好,机器学习也有不确定性,只是机器学习的一致性可能比较佳,但如何互补降低整体医疗错误、同时又能融入到临床诊治的实际运作、不干扰临床人员,将会是一个颠覆传统医疗的挑战。

此外,尚有:取得认证不易;临床机器学习将普及商业化;买仪器送AI,医疗仪器为了提高竞争力势必会将AI整合在产品内,特别是影像相关的仪器,内建的AI可以针对影像成像特性进行最佳化,降低第三方AI软件需要,解决不同仪器成像偏差的问题。

第二个观察则是未来应用在医院的智能医疗应该是多重技术的整合,包含实证医学的决策支持,但现阶段而言医疗科技是辅助的角色,不像工业界的大量自动化智能制造,医疗最终的决策还是在临床人员。

由于临床治疗流程非常复杂,机器学习仍有不具泛化性(Generalization)以及不可解释性(Interpretability)的问题,目前机器学习也不一定全然会提高效率,相较之下实证医学的确定性比较高,透过人主机辅的人机协作,可以提高病人安全并避免医疗纠纷,基于AI的智能医院也应重视以实证医学为基础的电脑临床决策辅助。


图说:彰化基督教医院主任许天成。