您现在的位置是:首页 >人工智能 > 2021-04-26 14:29:55 来源:

机器人的环境地图可以使现有的物体识别算法更加准确

导读 麻省理工学院机械工程系的John Leonard小组专门研究SLAM,或同步定位和制图,这是一种移动自动机器人映射环境并确定其位置的技术。 上周

麻省理工学院机械工程系的John Leonard小组专门研究SLAM,或同步定位和制图,这是一种移动自动机器人映射环境并确定其位置的技术。

上周,在机器人科学与系统会议上,伦纳德小组成员发表了一篇新论文,展示了SLAM如何用于改进物体识别系统,这将成为未来机器人的重要组成部分,这些机器人必须操纵周围的物体。任意方式。

该系统使用SLAM信息来增强现有的对象识别算法。因此,随着计算机视觉研究人员开发出更好的识别软件,机器人专家开发出更好的SLAM软件,其性能将不断提高。

“将对象识别视为一个黑盒子,并将SLAM视为一个黑盒子,你如何以一种好的方式整合它们?”Sudeep Pillai问道,他是计算机科学与工程专业的研究生,也是新论文的第一作者。“你如何整合各个观点的概率?这才是我们想要实现的目标。“

尽管使用现有的SLAM和物体识别算法,尽管仅使用普通摄像机的输出,但系统的性能已经与专用机器人物体识别系统的性能相当,后者可以考虑深度测量以及视觉信息。

当然,因为系统可以融合从不同摄像机角度捕获的信息,所以它比试图识别静止图像中的物体的物体识别系统更好。

绘制边界

Pillai说,在猜测图像包含哪些对象之前,较新的对象识别系统首先尝试识别对象之间的边界。在对颜色过渡的初步分析的基础上,他们将图像划分为可能包含某种对象的矩形区域。然后他们将在每个矩形内的像素上运行识别算法。

为了获得良好的结果,经典的物体识别系统可能必须重绘这些矩形数千次。例如,从某些角度来看,彼此相邻的两个物体可能看起来像一个,特别是如果它们的颜色相似。系统必须检验将它们混为一谈的假设,以及将它们视为独立的假设。

但是,由于SLAM图是三维的,因此它可以更好地区分彼此接近的对象,而不是单视角分析。由机械和海洋工程教授Pillai和Leonard设计的系统使用SLAM图来指导其相机捕获的图像的分割,然后将它们馈送到物体识别算法。因此,浪费假设的时间减少了。

更重要的是,SLAM数据允许系统关联从不同视角捕获的图像的分割。分析可能从不同角度描绘相同对象的图像片段可提高系统的性能。

图片完美

利用机器学习,其他研究人员已经构建了物体识别系统,这些系统直接作用于由摄像机捕获的数据构建的详细3-D SLAM地图,例如Microsoft Kinect,它也可以进行深度测量。但与那些系统不同,Pillai和Leonard的系统可以利用对标准相机捕获的单视角图像进行训练的对象识别器的大量研究。

此外,Pillai和Leonard系统的性能已经与使用深度信息的系统相媲美。而且它在室外更加可靠,像Kinect这样依赖红外线的深度传感器实际上是无用的。

Pillai和Leonard的新论文描述了SLAM如何帮助改进物体检测,但在正在进行的工作中,Pillai正在研究物体检测是否可以同样有助于SLAM。SLAM的核心挑战之一就是机器人专家称之为“循环闭合”。当一个机器人建立一个环境地图时,它可能会发现它已经存在于某个地方 - 例如,从另一扇门进入一个房间。机器人需要能够识别先前访问过的位置,以便它可以融合从不同视角获取的地图数据。

对象识别可以帮助解决这个问题。如果一个机器人进入一个房间找到一个会议桌,其中有一台笔记本电脑,一个咖啡杯和一个笔记本电脑的一端,它可以推断它是同一个会议室,它之前确定了一台笔记本电脑,一个咖啡杯和一个笔记本近在咫尺。

“对于应该在日常环境中执行有用任务的机器人来说,检测物体的能力非常重要,”华盛顿大学计算机科学与工程教授Dieter Fox说。“这项工作显示了一个非常有希望的结果,即机器人如何组合从多个视点观察到的信息,以实现对物体的有效和强大的检测。”