TWCC
DForum
 

MIT研发的触觉手套有助于机器人物体辨识训练与义肢设计

麻省理工学院(MIT)研究人员发展的低成本、可扩充触觉手套(scalable tactile glove;STAG),配备大量传感器以收集穿戴者的手部透过各种方式与物体互动时所产生的资料,训练卷积神经网络(Convolutional Neural Network;CNN)模拟人类运用触觉辨识物体并估计其重量。

麻省理工学院(MIT)研究人员发展的低成本、可扩充触觉手套操作影片

 点击图片放大观看

麻省理工学院的STAG收集的资料可用于训练机器人辨识物体与义肢设计。麻省理工学院

根据The Robot Report报导,MIT的研究人员在一篇发表于Nature的报告指出,他们汇整透过STAG触摸包括马克杯、笔、剪刀、汽水罐、汤匙、网球等26个常见物体所收集到的资料集(dataset),据以训练出来的CNN辨识物体的正确率可达76%,并能正确估计大多数60公克以内物体的重量,可应用于协助训练机器人辨识与操控物体,以及义肢的设计。

人类结合视觉与触觉回馈可完善对物体的辨识与处理,若想让机器人有同样的能力,就必须赋予其更丰富的感官回馈。集成运用STAG的触觉感测系统、传统计算机视觉(computer vision)、影像资料集,即可让机器人在与物体互动时具备更接近人类的理解力。但目前类似STAG的手套动辄数千美元,且仅配备约50个传感器,收集到的资料量远不及STAG。

STAG布满约550个微型传感器,收集配戴者手部以各种方式与物体互动时各点的实时压力讯号,并传送到CNN进行处理以学习各种物体的特定压力讯号模式,并运用该资料集训练CNN单靠触觉、无需视觉输入,即可进行物体分类与估计重量。STAG采用一般商用元件,总成本仅约10美元即能收集大量高分辨率的资料。

穿戴STAG的人在触摸、提起、握住、放下物体时,传感器便收集各点的实时压力,并透过外接电路将其转换为触觉地图(tactile map),触觉地图是由手的图形上发光与缩放的点的简短视讯所构成,这些点代表压力点的位置与强度,大小会随压力而缩放,点越大表示那个位置的压力越大。

MIT的研究人员从与26个物体互动所获得的触觉地图,汇整出1个包含135,000个影格(video frame)的资料集,这些影格可提供对人类手部抓握物体的深刻见解,并可用于训练CNN辨识物体与估计其重量。义肢制造商可运用MIT的资料集,来选择在义肢上安装压力传感器的最佳位置,并有助于根据使用者通常进行的活动与互动的物体来客制化义肢。

CNN通常用于影像分类,MIT的研究人员将CNN应用于建立特定压力模式与特定物体间的关联性,并运用资料集分析人的手部不同区域间,在与物体互动时彼此协调配合的状况,且首次以可量化的方式描述。辨识物体的关键在于从不同的抓握型态挑选影格以获取物体的全貌,而由于训练与测试CNN是采用不同的影格,因此无法直接建立重量与物体间的关联。

MIT研究人员设计的CNN先将STAG抓握物体所产生的的触觉地图,依不同抓握方式的特征进行分类,例如从底部、顶部、把手等位置抓握马克杯,再挑出最多达8个在抓握方式上差异最大的半随机(semirandom)影格来训练CNN,以模拟人类不倚赖视觉,仅靠数种不同的抓取方式来探索与辨识物体的能力。

在估计物体重量方面MIT的研究人员根据以STAG的手指部位抓、握、放下物体所产生的触觉地图,建立另一个包含约11,600个影格的资料集,结合指尖、手掌、机器关节(robot joint)部位的传感器资料,量测力距与力以提供更准确的物体重量评估。此外CNN在换算重量时仅考量与物体重量相关的压力讯号,排除如避免物体滑脱等其它因素所产生的压力资料。

  •     按赞加入DIGITIMES智能医疗粉丝团
更多关键字报导: 麻省理工学院 机械义肢 触觉感测