智能应用 影音
Dtalk
event

AI黑盒子如何透明? 人脸辨识小组用视觉化模块现形

人工智能(AI)?工人智能?在需要专家协助标记训练的机器学习与逐渐开始自主学习的深度学习的技术与智能发展的路上,大家是否好奇计算机到底在想什么?计算机的思维逻辑到底是什么?为什么会产出这样的结果?也因为不断喂养的数据、参数越来越多,这数以「十亿」计算的参数,都让AI的黑盒子越来越大、越来越黑。说是透明化也好、解释性也罢,国立台湾大学信息工程学系教授徐宏民与团队成员希望藉由脸部辨识系统抛砖引玉,以「脸部相似度」与「判断依据」等两大面向,稍微与大家分享AI到底在想些什么?

DIGITIMES电子时报智能医疗YouTube频道:台大资工人脸辨识技术 可解释性的AI(Explainable AI;XAI)模块xCos


台大资工使用7x7或11x11等视觉化模块,推出「可解释性AI」(XAI)模块xCos。蔡腾辉摄

AI结果快又准确? 怎么产出的结果众说纷纭

在人工智能的思维逻辑剖析上,不少团队试图从网络主体(Backbone)等各方向切入,无论是把深度学习的黑盒子打开,或是调高若干透明度;或是结果产出后,再用很多东西与条件来解释。而这次团队的脸部辨识技术的AI可解释系统,则是加总了上述两种方法,简言之,就是「将外挂模块、插进黑盒子当中,把与关键决策的讯息抽出来,目前以7乘以7的2组模块来呈现,如图中的蓝色、红色、绿色。」

越蓝越相近、越红越不相近的部位相似度,以及越深越是AI判断是否为同一人的判断依据图表中,开发者、决策者、工程师、医师等使用者都可以了解,到底AI怎么判断,或是说,如果这些判断的「热点」刚好是病灶或是工程系统当中常出现问题之处,那么也能够提醒决策者,应该要逐步分析,省去过去大海捞针的地毯式搜索之辛劳。

台大资工团队撰写程序,操作可解释性的人脸辨识系统。蔡腾辉摄

xCos不仅辨识是否同一人 也能聚焦不自然表面

在判断的时候,系统能解释为何2张人脸会辨识为同一人,或是识别为另一人的原因,还可以用语音的方式讲出原因。同时,同时「可解释性AI」(XAI)模块xCos也会自动留意,人脸「不自然的表面」,进而专注于真实,以及具辨识能力的人脸位置,进而识别出伪装的人脸。

徐宏民分享,资诚(PwC)的研究数据指出,AI产业市值达15兆美元,然而当前卡关,就卡在「AI缺乏解释性」。只看到了输入的资料及输出的结果,中间的判断依据、处理过程仍旧令人摸不著头绪。也因此,近年来各国都积极切入AI可解释性的研究,就包括美国国防高等研究计划署(DARPA),2018年也投入了20亿美元推动AI计画,其中AI可解释性也是关键的一环。虽然现在技术已经能提供跨年龄辨识、解释年龄的变化,也不用因为伪装的型态不同而设计不同的辨识模块,即可持续侦测,但徐宏民谦虚地说,这只是先开个头,未来研究都会持续深化,亦已将这项技术以Open Source方式供国内外产学研单位使用(https://github.com/ntubiolin/xcos)。

延伸阅读:发箍也能抗疫! 三总赶制2,000组3D打印面罩组

蔡腾辉

DIGITIMES电子时报智能医疗主编蔡腾辉Mark Tsai
专注研究智能医疗产品技术服务导入场域时,所遇到的困难症结与如何克服要点。
精通中英德语,热爱挑战与Swing Dance。
Facebook:DIGITIMES智能医疗

作者更多专栏

  •     按赞加入DIGITIMES智能医疗粉丝团
更多关键字报导: 热点 视觉辨识 人脸辨识 AI