运用机器视觉技术 建构机器人系统视觉空间
为了使机器人有效率地运作,机器人必须建构环境空间数据,透过运动控制避免移动或动作碰撞到环境障碍物,除可运用各式传感器达到障碍物位置测量外,使用进阶机器视觉搭配深度识别技术,也可建构具深度视觉空间的应用条件。
机器视觉运用于自动化检测、自动生产设备已相当常见,随着相关技术持续优化,加上嵌入式处理器性能提升,机器人设备导入机器视觉应用,采行视觉引导机器人(Vision Guided Robotics)的相关硬件、技术与元件效能门槛降低,也能提供现有多种空间传感元器件外的设计应用更多选择。
机器人工作更趋多元 高弹性的环境传感需求高
随着生产应用赋予机器人的工作越来越多元,以往机器人生产设备大多仅使用固定式的机器手臂,取代产线定点加工站的规律性插拔件、锁螺丝与组装加工程序,或是透过机器视觉进行简单的料件检测、分检动作,虽然在高速化加工应用与高精准度检测应用已获得相当具体的成果,但随着机器人整合承载运动平台,搭配更高自由度(Degree of Freedom;DOF)的机器人设备时,原有采固定式运作的自动化应用机器人,即便可使用实体围篱或电子围篱建构安全操作区,但高自由度的机器人设备可能在顾及安全性部分,就无法搭配实体或电子围篱使用。
而为建构高自由度机器人设备更完整的环境空间信息,一般会使用各种传感器整合分析运作空间,例如,整合超声波、雷射测距、机械式微动开关...等,但单一传感器可能会因为受限传感原理限制,而会有空间、角度、距离与精确度等空间传感差异,而设置过多传感器也会有成本与处理负荷问题。然而,采行高经济价值、高效能的机器视觉技术,反而可以有效优化机器人设备建构空间信息的较佳方案。
影像传感加深度识别 以机器视觉测定环境空间
尤其是运用深度识别的影像传感器整合,可以针对影像传感器取像范围的空间进行大幅度的空间深度测定,取得数据后在于动作控制端进行操作范围限制,避免高自由度的机器人动作失准敲击到周边设备或是工作人员,降低机器人运作可能产生的设备损伤或人员安全问题,透过高效能、高精准度的机器视觉传感模块整合,进而建构更接近理想机器人设备的高自主性设计方向。
在早期受限传感科技、机器人控制技术限制,初期的机器人或自动化生产设备,大多采用较精简的机制进行机器手臂或自动加工设备的空间感知与控制臂定位,例如,使用红外线传感器建构电子围篱,让机器人在限制范围中运作与进移动作协调,或是利用设于乘载平台周边的微动开关,当碰撞发生时透过微动开关的on/off动作反馈系统载具出现障碍物撞击、需进行路径变更或是调整巡航方向,稍微先进一点的机器人乘载设备,则会在行进过程同步进行路径记录测绘,避免重复进行同一路径程序,运用AI人工智能提升路径寻迹的行进效率。
进阶机器视觉应用 让机器人有类似双眼的空间识别
但在发展高自由度机器人设备时,传统的传感或是测距方案就会显得处理能力受限,甚至影响机器人对于环境空间定位与掌握能力,反而是透过摄影机机器视觉模块搭配影像分析,若在影像深度识别与智能空间分析的能力可以大幅优化,在视觉处理器与机器视觉演算法的辅助下,机器人系统也可能做到如人类双眼的空间识别、环境识别应用目标,而在嵌入式系统加上高效能处理芯片整合,机器视觉整合应用的复杂度也能相对降低许多。
然而,在机器视觉技术领域上,其实摄影模块的硬件水准已能达到应用需求,分辨率表现极佳、体积与数据储存、分析的效能已可应付巨量影像分析所需的效能要求,机器视觉的空间测定与机器人运动控制整合较大的发展瓶颈,反而是在机器视觉的软件技术问题,例如,用以判定一组或多组环境影像的深度空间分析来判定机器人的方向、位置的演算法,不仅复杂度相当高,还必须同时进行多个特定目标进行机器人动作控制联动,优化大量影像分析的演算法,就成为整个机器视觉系统能否成功关键。
影像分析辨别演算法优化 提升机器视觉导入价值
在系统实际处理大量环境影像,其实能将大量数百万像素的图点构成环境图像,预先转换成特徵数据,一来可以大幅缩减环境影像的传感数据量,一方面也可缩短视觉数据传输时间,让智能影像系统可以加速环境空间建模程序,甚至达到快速提供机器人动作的驱动数据,让机器人动作可以自主判断执行互动。
影像特徵优化若等到所有影像数据都汇集到中央控制单位再进行特徵图像转换,大量的影像数据传输与影像特徵分析势必会拖慢整个环境建模速度,甚至导致机器人动作反应体验不佳,较合理的作法可善用设置于摄影模块端的嵌入式系统,预先在动态影像撷取同时以极短时间内进行影像特徵化处理,数据大幅减少的图像特徵传送至机器人核心动作分析才能有效进移动作判断。
除预先将大量影像透过特徵转换,取得相对容易传输、分析的特徵数据,在于特徵数据上以多种影像分析演算法,转换成机器人的空间环境,例如运用最大稳定极值区域(Maximally Stable Extremal Regions;MSERs)、加速稳健特徵(Speeded Up Robust Features;SURF)演算法,或利用Harris/Shi-Tomasi角点检测法,或最佳化追踪点(Good Feature To Track)角点检测法搭配特徵点追踪演算,达到以两组摄影镜头获取目标物图像、特徵点追踪、提取的设计需求。
取像模块整合DSP、GPU、嵌入式处理器 优化环境空间辨别效能
机器视觉应用于机器人的技术门槛其实相当高,若是设置于固定位置类型的机器手臂、自动化加工站,机器视觉进行的识别与需处理的操作动作相对单纯,但若是具移动能力的机器人,运动范围、环境障碍会因为移动位置的不同而产生变化,每次动作进行前就必须完成安全工作区的传感与分析动作,若透过传统传感器进行不仅效果有限、运作效能也备受考验,反而是机器视觉可以快速、大范围完成操作环境分析,进而映射可以进行自主运行的动作安全区,优化机器人设备的反应速度、同时也可用低成本达到所需的环境空间传感需求。
但影像撷取模块每秒钟会产生超过百万像素的图像数据,如果直接将影像送到中央处理器进行解析与空间建模,势必会因传输与储存媒介效能等问题,影响设备成本、设置价值,常见方法为先将图像于撷取终端进行像素特徵分析,将空间拍摄的影像转换成点、角、边线或是面等数据,从2D搭配深度影像分析转换至具空间特徵的3D数据。当百万像素的图像透过演算法处理成大量环境特徵数据后,即可搭配特徵数据库运用演算法使机器人可快速识别图像或认知物体,而此识别系统则需要大量参考数据预先置入数据库、让系统快速比对,否则将影响检测目标或是空间辨别的准确度。
前述影像繁复的传输与演算法处理,针对撷取影像进行如图像缩放、色彩空间转换、影像翻转、影像旋转、色调加强、伽玛校正(Gamma correction)、对比强化等处理,对CPU将造成极大负荷,实作通常使用嵌入式处理器、DSP、GPU等硬件影像加速方案搭配,优化机器视觉的影像处理效能,不让庞大的影像分析、数码数据处理成为整个自动化系统的应用门槛。