TWCC
event
 

机器人性能再成长 抽象视觉指令也难不倒它

Dex-Net 4.0可协助机器人准确判断拿取物体需采用的方式与工具。加州大学柏克莱分校

新的机器人能以创新方式与真实世界互动,超越单纯环境互动(environment interaction)、模仿人类示范者的基本行为、运动规划(kinematic planning),并透过学习进化以适应新的处境,达到运用双手拿取陌生物体、跌倒后爬起、理解抽象的视觉指令(visual instruction)。

根据TechCrunch报导,机器人在专属领域之外的用途非常有限,因此应用弹性一直是重点研究领域。Science Robotics在其机器人学习专刊报导中,介绍3款基于机器学习(machine learning)与人类-机器人(human-robot)互动技术独立开发的新机器人系统。

工欲善其事必先利其器,人类透过学习与探索,熟练视觉与双手的协调操作以搬取物体,但现有的机器人则缺乏相关知识与经验。加州大学柏克莱分校(UC Berkeley)机器人学家开发的Dex-Net(Dexterity Network) 4.0机器人操纵系统,则透过基本的决策程序,协助机器人准确判断拿取特定形状、尺寸、质地或是陌生物体所需采用的方式与工具。

四足(quadrupedal)机器人对各种地势能应付自如,既使滑跤或遭狠踢也能回复站立、持续运行,目前的四足机器人只能在正常立姿时执行作业,若因故倒地通常就无法再起身。ETH Zurich发展的ANYmal具备更高的敏捷度,经过训练只要有足够空间且4足都还能派上用场,无论倒地的姿势、位置为何,ANYmal都能成功起身。

人类的许多日常行为虽然看似轻而易举,能在瞬息间进行辨识、判断、决策、行动,实则在不自觉中运用了大量直觉理解与知识,若相同情况由机器人处理,过程则变得极为复杂。Vicarious AI的研究团队所发展的视觉认知(visual cognitive)计算机,涉及大量的机器创意或想象,在建立抽象陈述(abstract representation)与真实世界的连结上,已有初步进展。

Dex-Net 4.0运用神经网络(neural network)处理物体本身与其位置的数百万个资料点(data point),据以决定抓取该物体的方式与工具,并从试误中学习与累积经验以加速决策过程,对于训练在仓库执行捡货作业的机器人非常关键。目前Dex-Net 4.0已具有高可靠性与运用弹性,柏克莱的团队正致力于透过缩短神经网络运算时间来提升其决策速度。

机器人的双手各配备钳夹(pincer grip)与吸盘夹(suction cup grip),运用能辨识景深的机器视觉技术,实时区分判断哪里个物品应以何种工具抓取。Dex-Net 4.0的决策有部分基于经验,研究人员发现以吸盘夹处理平滑表面的物体成功机率较高,而以钳夹处理需要抓握的物体成功机率较高。实际结果显示Dex-Net 4.0的决策非常可靠,即使捡取的是一堆前所未见的物品。

ANYmal的腿部采用多功能的设计,可有更大的动作自由度,不过这项弹性也让ANYmal移动速度与稳定度的最佳化极为困难。ANYmal倒地后爬起的能力并非由人类设计,而是透过模拟(simulation)与进化的算法(evolutionary algorithms)不断尝试,从中找出并保留能达到目的的有效行为。

ETH Zurich以模拟的方式同时测试数千个ANYmal尝试进行不同的作业,再将结果去芜存菁应用于真实世界。不过由于目前无法完整模拟所有相关的物理特性,因此基于模拟的学习方式并非每次都能获得所需的结果,但仍能产生非常新颖的行为,或是以人类眼光观之已达最佳化的流畅动作。

理论上Vicarious AI的视觉认知计算机所提供的工具组,将让机器人有能力和人类一样完成IKEA家具的组装。主要过程为以视觉理解随附的图象式抽象组装说明,对照与连结实际的零、组件,并根据组装指示操作组件、完成组装。

  •     按赞加入DIGITIMES智能应用粉丝团
更多关键字报导: 机器人 机器学习