您现在的位置是:首页 >生活 > 2020-11-27 09:21:22 来源:
探索机器人技术中声音动作和视觉之间的相互作用
导读 近年来,研究人员开发了越来越多的计算技术,以使机器人具有类似人的能力。但是,到目前为止开发的大多数技术都只专注于人为地再现视觉和触
近年来,研究人员开发了越来越多的计算技术,以使机器人具有类似人的能力。但是,到目前为止开发的大多数技术都只专注于人为地再现视觉和触觉,而忽略了诸如听觉感知之类的其他感觉。
卡内基梅隆大学(CMU)的研究小组最近进行了一项研究,探讨了使用声音开发具有更先进传感功能的机器人的可能性。他们的论文发表在《机器人技术:科学与系统》上,介绍了迄今为止编译的最大的声音动作视觉数据集,该数据集是作为一个称为Tilt-Bot的机器人平台收集的,并且可以与各种各样的对象进行交互。
“在机器人学习中,我们通常仅使用视觉输入进行感知,但是人类拥有的感知方式不仅仅是视觉。”进行这项研究的研究人员之一Lerrel Pinto对TechXplore说。“声音是学习和了解我们的物理环境的关键组成部分。因此,我们提出了一个问题:声音可以用机器人学买我们吗?为了回答这个问题,我们创建了Tilt-Bot,该机器人可以与物体互动并收集物体。互动的大规模视听数据集。”
本质上,Tilt-Bot是一种自动托盘,可以倾斜物体,直到它们碰到托盘的一面墙为止。Pinto和他的同事们在机械手托盘的墙壁上放置了接触式麦克风,以记录物体撞击墙壁时产生的声音,并使用高架摄像头直观地捕捉每个物体的运动。
研究人员收集了与60个不同对象进行的超过15,000次Tilt-Bot交互的视觉和音频数据。这使他们能够编译一个新的图像和音频数据集,这有助于训练机器人在动作,图像和声音之间建立关联。
Pinto和他的同事在论文中使用此数据集来探索机器人应用程序中声音与动作之间的关系,并收集了许多有趣的发现。首先,他们发现分析物体移动和撞击表面的声音记录可以使机器区分不同的物体,例如区分金属螺丝刀和金属扳手。