科技产业报订阅
event
 

试图解构AI思维逻辑 台大徐宏民力赞可信任的AI

国立台湾大学信息工程学系教授徐宏民分享,可解释的AI将有助于产业的导入使用,以及各国开发者的技术升级。蔡腾辉

「病人有甲症状,所以建议给特别处方一」、「病人肝脏颜色异常,请使用乙处置方式」,或许部分的医疗人工智能(AI)系统会给予类似的建议,然而,以医师的角度来说,为什么要给这样的处置?这样的处置是如何判断的?如果有错误,那应该有哪里些配套措施?希望协助产业提高对于AI信任的国立台湾大学信息工程学系教授徐宏民表示,AI的黑盒子大家都想打开,但也坦言不太容易。然而,提升人类对于AI的信任度,绝对有助于AI在各场域更加流畅且融入流程地帮助人类。

可解释的AI系统 提升人类信任 进而可能提高采用数

 点击图片放大观看

台大资工系团队成员,示范与解释xCos系统原理与操作。蔡腾辉

团队的「可解释性人工智能」(XAI)模块xCos,提供了人脸高辨识率以外,较为特别的还提供「条理」的解释,让开发者、各场域、各情境使用者都能明白AI产出结果的原因。「希望透过可解释的特色,提升人类使用AI时的信任度,进而促进产业正向循环。」

徐宏民分享,如果说,今天计算机系统显示,「你感染了COVID-19(新冠肺炎)」那医师也会很好奇,计算机系统到底是如何得知?依照哪里些数据判断出来确诊?在知其然也知其所以然的力量驱使之下,2018年与团队开始构思这套可解释性的AI,目前在各大领域都有合作应用,在医学领域也与台大医院合作内科肝脏相关疾病,看看怎么样的细胞排列组合,对应著怎么样的疾病。不仅可以帮助医师处理数量庞大的数据,也可以让精准医疗再上层楼。

不必左右为难 高效能与高解释性同时推升

一般来说,效能(正确率)与可解释性呈现负相关的关系,也就是说,可解释性越高,效能就越差;效能越高,可解释性就越低。透过大量参数成长的深度学系模型就属于后者。徐宏民分享多年的数据分析经验说道,10多年前的数据分析,一般来说参数约莫只有几百个,几千个参数就已经算是很多的了;然而,以自然语言处理(NLP)为例,数千万个、数十亿个参数都开始成为新常态,也因此,如何在如此的多参数、高效能的新资料分析世界当中,持续提升可解释性,也就是学界与产业都相当注重的发展。

深度学习等类神经网络,快速且大量消化资料后,计算机会自己订规则,藉由千万条件产出更高精准度的答案,但「怎么来的?」始终是人类的疑惑,推论过程与原理的了解对于开发者与使用者都相当重要,徐宏民举例说明,在金融理财方面,若是系统建议使用者「要购买某档基金」,使用者可能狐疑不解,然而,若是与使用者说,「因为你现在30岁,并且有想要结婚的男朋友,因此在3年内可能会生1~2个小孩,而未来3年内这档基金所追踪的投资标的,可能可以帮你在未来5~10年,创造每年约莫3~5%的育儿成长教育基金。」试问,这样「具有解释性」的AI分析结果,相对只是告知「购买某档基金」,是否更能体现人类顾问的贴心与暖心「可信任价值」?

希望持续探询与解释AI决策过程关键,提升AI决策透明度与解析解构的徐宏民认为,AI等智能技术,已经且会加速渗入各产业,也相当看好与期待未来取得开发者、使用人员、环境、产业的信任。「不只是冲正确率,同时可信度也相当重要。」

延伸阅读:【智能医疗专辑】台湾医疗起飞关键 产官学研医共创AI新应用
 

蔡腾辉

DIGITIMES电子时报智能医疗主编蔡腾辉Mark Tsai
专注研究智能医疗产品技术服务导入场域时,所遇到的困难症结与如何克服要点。
精通中英德语,热爱挑战与Swing Dance。
Facebook:DIGITIMES智能医疗

作者更多专栏

  •     按赞加入DIGITIMES智能医疗粉丝团