提供完善AI建模工具 阳明交大让自驾车识别更精准 智能应用 影音
工研院
ADI

提供完善AI建模工具 阳明交大让自驾车识别更精准

  • DIGITIMES企划

阳明交通大学电机学院副院长暨嵌入式人工智能研究中心主任郭峻因。
阳明交通大学电机学院副院长暨嵌入式人工智能研究中心主任郭峻因。

嵌入式AI技术的应用渐广,其中深度学习是目前最常用的演算法之一,此演算法需建立完整精确的训练模型,推论(Inference)端才能顺利发挥效益,在此次论坛中,阳明交通大学电机学院副院长暨嵌入式人工智能研究中心主任郭峻因就以「嵌入式AI深度学习运算模型之建构与应用」为题,发表精采演说。

阳明交大的智能视觉系统设计实验室(NYCU iVS Lab),聚焦于各种智能视觉研究,自驾车也是其中一环。郭峻因表示,自驾车已成全球汽车与科技两大产业的共同趋势,NYCU iVS Lab在此领域的研究包括各种ADAS所需的功能与相关技术,在传感器部分,除了视觉传感器外,其研究内容也包括激光雷达(LiDAR)。他指出,影像识别目前是AI的主流发展方向,在车用领域,AI也可应用于LiDAR,进行物件侦测与分析。

对于AI的导入建议,他表示开发者必须先行掌握图资与软硬件核心技术,再进行AI建模,在此环节郭峻因特别强调,建模时必须采用定点而非浮点运算,方能符合自驾车系统需求。针对目前AI设计趋势与挑战,郭峻因则以近期的某电动车事故为例点出问题症结。日前台湾高速公路发生一起车祸,驾驶人放手让电动车行驶,电动车却直接撞击前方道路上一辆倒卧的货柜车,在一般正常状态下,该品牌电动车可侦测前方车辆,过近就会自动刹车,但在这次事件中,AI无法识别静止且呈倒卧姿态的货柜车是否为车辆,再加上白色车身影响了其视觉判断,最终酿成车祸。

从这次事件可以看出目前AI在自驾车上的几个问题,像是摄影机无法侦测车道车辆、雾与强光会干扰系统识别白色汽车、雷达有可能忽略静态车辆、镜头与雷达两大传感器整合方式有待改进等,现在NYCU iVS Lab就致力于解决上述问题。

郭峻因紧接着谈到嵌入式AI感应核心技术与应用。他指出标准的嵌入式深度学习开发,必须先设定与标示数据、再建构训练模型。NYCU iVS Lab已针对上述环节推出不同平台,让AI开发者在不同环节均有快速简易的工具,协助业者缩短开发时程。

郭峻因表示,NYCU iVS Lab所推出的工具都经过测试,具有高度实用性,以数据的设定与标示为例,NYCU iVS Lab在此部分提供的ezLabel工具,只需要前后两帧画面,即可标记整段影像中的物件,大幅减少人工标记工时;ezLabel是网络开放平台,可让全球各地深度学习专家与一般民众使用,目前ezLabel 2.3版已累积有超过610位使用者。

模型建构部分,NYCU iVS Lab建构SSD轻量化模型与MTSAN(Multi-Task Semantic Attention Network;多任务语义注意网络)。SSD轻量化模型解决了过去此类模型因锚点(Anchor)密度不足,难以侦测瘦长物品的痛点,NYCU iVS Lab在加入CSPNet后,不仅强化运算速度与准确度,同时运算量与参数量也减少了一半。至于MTSAN则是结合物件侦测技术,利用像素分割场域,并借此强化物件特徵,郭峻因指出,光是此动作就可提升4.5%的准确度(mAP)。

自驾车导入可分割场域的MTSAN后,可与前车防碰撞(FCWS)或车道偏移系统(LDWS)整合,精准判断车道,在山路上行驶时,可以识别弯曲车道线,另外也可加入2D与3D的卷积(Convolution)行为分析技术,用来预测后端车辆的超车方向与可能性。

演讲最后郭峻因引述美国未来20年发展AI的蓝图做总结。他表示未来的AI必须与情境整合,同时打造开放性知识场域,集结众人之力,让AI可了解人类的智能与反应,以进行有意义的互动,此外AI也必须能自我学习,整合周边环境的各种信息,培养应对困难挑战的能力。

至于自驾车的AI应用,他则指出需强化研发各种感知技术,让车辆可以精准识别路上各类型物件与其移动的意向,将是未来产学研的重点,透过这些研发,车祸事故发生机率将可大幅降低,进而建构安全可靠的交通场域。