Paper之IEEE&RSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议&RSJ智能机器人与系统国际会议&机器人技术:科学与系统&机器人学报)历年最佳论文简介及其解读

Paper之IEEE&RSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议&RSJ智能机器人与系统国际会议&机器人技术:科学与系统&机器人学报)历年最佳论文简介及其解读相关文章AI之Robot:机器人Robot的简介、发展历史、案例应用之详细攻略Paper之IEEE&RSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议&RSJ智能机器人与系统国际会议&机器人技术:科学与系统&机器人学报)历年最佳论文简介及其解读会议期刊来源IEEE International Conference on Robotics and AutomationIEEE机器人和自动化国际会议IEEE/RSJ International Conference on Intelligent Robots and SystemsIEEE/RSJ智能机器人与系统国际会议Robotics: Science and Systems·A Robotics Conference机器人技术:科学与系统·机器人技术会议IEEE Transactions on RoboticsIEEE机器人学报论文介绍Robotic Pick and Place of Novel Objects in Clutter with Multi Affordance Grasping and Cross Domain Image Matching通过多 affordance 抓取和跨域图像匹配完成杂乱环境下对新物体的捡放操作论文作者Andy Zeng, Shuran Song, Kuan-Ting Yu, Elliott Donlon, Francois R. Hogan, Maria Bauza, Daolin Ma, Orion Taylor, Melody Liu, Eudald Romo, Nima Fazeli, Ferran Alet, Nikhil Chavan Dafle, Rachel Holladay, Isabella Morona, Prem Qu Nair, Druck Green, Ian Taylor, Weber Liu, Thomas Funkhouser, Alberto Rodriguez论文地址IEEE International Conference on Robotics and Automation, 2018https://ieeexplore.ieee.org/abstract/document/8461044论文摘要本文介绍了一种在杂乱环境中能够抓取和识别已知和新奇物体的机器人拾取和放置系统。该系统的关键新特性是,它可以处理广泛的对象类别,而不需要针对新对象的任何特定于任务的训练数据。为了实现这一目标,首先使用一种不确定类别的启示预测算法在四种不同抓取原语行为中进行选择。然后,它通过一个跨域图像分类框架来识别选中的对象,该框架将观察到的图像与产品图像相匹配。由于产品图像可以很容易地用于广泛的对象(例如,从web上),因此该系统可以开箱即用地用于新对象,而不需要任何额外的训练数据。详尽的实验结果表明,我们的多启示抓取算法对杂波中各种各样的目标都有较高的成功率,我们的识别算法对已知和新抓取的目标都有较高的准确率。这种方法是麻省理工-普林斯顿团队系统的一部分,该系统在2017年亚马逊机器人挑战赛的装载任务中获得了第一名。所有代码、数据集和预先训练的模型都可以在http://arc.cs.princeton.edu上在线获得研究问题人类可以在仅掌握少量先验知识的前提下识别和抓取陌生目标物,这一能力  一直是机器人研究的灵感来源,也是很多实际应用的核心。为此,提出一种能在  杂乱环境下对新目标物进行识别和捡放操作的机器人系统,整个系统可直接用于  新目标物(在测试过程中首次出现),而无需额外的数据收集或重新训练,如下  图所示。研究方法专门设计该机器人识别捡放系统,该系统由两部分组成:1)具有四个基础  行为的多模式抓取框架,该框架使用深度卷积神经网络(ConvNets)来预测场景  affordance,而无需事先对目标物进行分割和分类。2)跨域图像匹配框架,用于  通过将抓取的对象与产品图像进行匹配来识别抓取的对象,该框架使用了  ConvNet 架构,该架构可直接用于新目标物而无需重新进行训练。这两部分互相  配合,可以在杂乱的环境中完成对新目标物的抓取操作。机器人吸取和抓取的 affordance 预测如下图所示,考虑各个视角的 RGBD 图  像,可通过一个全卷积残差网络估算出每张图片的吸取 affordance。然后,将预  测汇总在 3D 点云上,并基于表面法线生成向下吸取或侧向吸取的建议。并行地,  我们将 RGB-D 图像合并为 RGB-D 高度图,将其旋转 16 个不同的角度,并估计  每个高度图的水平抓取。这有效地生成了针对 16 个不同抓取角度的 affordance  图,从中可得到向下抓取和其他抓取的建议。新物体的识别框架如下图所示。训练一个双流的卷积神经网络,其中一个流  计算得到产品图像的 2048 维特征向量,而另一个流计算得到观察图像的 2048 维  特征向量,并对两个流进行优化,以使相同图像的特征更加相似,反之则不同。  在测试期间,已知对象和新对象的图像都映射到公共特征空间上。通过在相同的  特征空间找到与其最近的特征来匹配来识别它们。研究结果提出一种系统,该系统能够以很少的先验信息(少数产品图片)来拾取和识  别新对象。该系统首先使用与类别无关的 affordance 预测算法在四种不同的抓取  动作元之间进行选择,然后通过将抓取的对象与它们的产品图像进行匹配来识别  抓取的对象。通过评估证明,该机器人系统可以拾取并在杂乱无章的环境中识别  出新物体。Using Simulation and Domain Adaptation to Improve Efficiency of Deep Robotic Grasping使用仿真和领域适应来提高深度机器人抓取的效率论文作者Konstantinos Bousmalis, Alex Irpan, Paul Wohlhart, Yunfei Bai, Matthew  Kelcey, Mrinal Kalakrishnan, Laura Downs, Julian Ibarz, Peter Pastor, Kurt Konolige,  Sergey Levine, Vincent Vanhoucke论文地址论文出处:IEEE International Conference on Robotics and Automation, 2018论文地址:https://ieeexplore.ieee.org/document/8460875论文摘要检测和收集带注释的视觉抓取数据集来训练现代机器学习算法是非常耗时和昂贵的。一种吸引人的替代方法是使用现成的模拟器来呈现合成数据,并为其自动生成底层真值注释。不幸的是,单纯根据模拟数据训练的模型常常不能推广到现实世界。我们研究如何将随机模拟环境和领域适应方法扩展到训练抓取系统从原始单眼RGB图像中抓取新的目标。我们对我们的方法进行了广泛的评估,总共有超过25000个物理测试掌握,研究了一系列的模拟条件和领域适应方法,包括一种新的扩展的像素级领域适应,我们称之为GraspGAN。我们表明,通过使用合成数据和领域适应,我们能够将实现给定性能水平所需的真实世界样本数量减少50倍,只使用随机生成的模拟对象。我们还表明,仅使用未标记的真实世界数据和我们的GraspGAN方法,我们获得了真实世界中没有任何标签的抓取性能,与939,777个标记的真实世界样本的抓取性能相似。研究问题收集带注释的视觉抓取数据集以训练现代机器学习算法可能是非常耗时的。  一个替代方法是使用现成的模拟器来合成数据,这样就可以自动产生这些数据的  真实标注。不幸的是,仅基于模拟数据训练的模型通常无法泛化到现实世界。研  究如何将随机模拟环境和域适应方法应用到真实场景,训练一种抓取系统,可以  通过原始 RGB 图像中进行规划,抓取新的目标物。研究方法研究模拟环境中的 3D 目标模型、模拟的场景和模拟的动力学如何影响机器  人最终的抓取性能,以及将模拟与真实场景集成以实现最大程度的迁移。具体方  法如上图所示。(a)为像素级的域适应模型 GraspGAN 的概述。从仿真器中得到的图像元  组 x  s 并输入到生成器 G 中,生成真实版本的图像 x  f,鉴别器 D 获得未标注的真  实世界图像 x  t 和 x  f,并经过训练以区分它们。真实的和经过适应的图像也被送到  抓取预测网络 C 中,一同进行并行训练。因此,生成器 G 从鉴别器 D 和预测器  C 中获得反馈,以使适应的图像看起来更加真实并保持其语义信息;(b)为生  成器 G 和鉴别器 D 的体系结构;(c)为 DANN 模型,其中 C1包含 7 个卷积层,  C2 包含 9 个卷积层。研究结果研究将模拟数据合并到基于学习的抓取系统中的方法,以提高抓取性能并减  少数据需求。通过使用合成数据和域适应,仅使用少量随机生成的模拟数据,就  可以达到给定性指标的 50 倍。还表明,仅使用未标注的真实数据和 GraspGAN  的方法,就可以在没有任何真实数据标注的情况下获得与真实世界相同的抓取性  能。Dex Net 2.0: Deep Learning to Plan Robust Grasps with Synthetic Point  Clouds and Analytic Grasp MetricsDex-Net 2.0:利用合成点云进行鲁棒抓取和分析抓取指标的深度学习论文作者Bohg Jeffrey Mahler, Jacky Liang, Sherdil Niyaz, Michael Laskey, Richard  Doan, Xinyu Liu, Juan Aparicio Ojea, and Ken Goldberg论文地址论文出处:Robotics: Science and Systems, 2017论文地址:https://arxiv.org/pdf/1703.09312.pdf论文摘要为了减少对健壮机器人抓取计划进行深度学习的数据收集时间,我们研究了从Dex-Net 1.0中数以千计的3D模型生成的670万点云、抓取和分析抓取指标的合成数据集进行的随机摆拍训练。我们使用得到的数据集dx - net 2.0来训练一个抓取质量卷积神经网络(GQ-CNN)模型,该模型可以快速预测从深度图像抓取成功的概率,其中抓取指定为相对于RGB-D传感器的爪的平面位置、角度和深度。实验了1000次试验在ABB弓比较掌握规划方法扣带回对象表明GQ-CNN训练只有合成数据从Dex-Net 2.0可以用来计划掌握在0.8秒93%的成功率与敌对的几何和8个已知的对象是3倍的速度比注册点云的预先计算的数据集和索引把握对象。Dex-Net 2.0抓取计划在包含10个新刚性对象的数据集上也拥有最高的成功率,在包含40个新家居对象的数据集上实现了99%的精度(69个抓取中有一个假阳性被归类为鲁棒),其中一些对象是铰接的或可变形的。代码、数据集、视频和补充材料可以在http://berkeleyautomation.github找到研究问题为了减少采用深度学习进行鲁棒机器人抓取策略学习所需的数据收集时间,  探索了从 670 万点云,抓取姿态和抓取指标的合成数据集进行训练,这些数据是  从 Dex Net 1.0 的数千个三维模型中以随机姿势在桌子上生成的。利用得到的数据集 Dex-Net 2.0 训练抓取质量卷积神经网络(GQ-CNN)模型,该模型可快速  从深度图像预测抓取成功的概率,其中抓取被指定为相对于 RGB-D 传感器的夹  持器的平面位置、角度和深度。研究方法研究基于深度点云的处于桌面上的单刚体的平行爪抓取规划问题。学习一个  函数,它以一个候选抓取和一个深度图像作为输入,并输出一个鲁棒性的估计值,  或者在传感和控制的不确定性下的成功概率。Dex Net 2.0 的架构如下图所示。GQ-CNN 是抓取质量卷积神经网络,它是  经离线训练的,使用由 670 万个合成点云、相关鲁棒抓取指标的数据集 Dex-Net  1.0 数据集,可从深度图像预测鲁棒候选抓取。当一个物体呈现给机器人时,深  度相机会返回一个三维点云,识别出一组几百个候选抓取点。GQ-CNN 迅速确定  了最稳健的抓取位姿,并由 ABB YuMi 机器人执行操作。研究结果开发了一个抓取质量卷积神经网络(GQ-CNN)体系结构,它可以预测基于  点云模型抓取的稳定性,并在 Dex-2.0 数据集上对其进行训练,它是一个包含 670  万点云、平行抓取和稳定性抓指标的数据集。在 1000 多个物理评估中,发现 DexNet  2.0 抓取规划器是一种可靠的、速度比基于点云配准方法快 3 倍的,并且在  40 个新目标的测试集上具有 99%的精度的抓取规划器。Deep Predictive Policy Training using Reinforcement Learning深度预测策略的强化学习训练方法论文作者Ali Ghadirzadeh, Atsuto Maki, Danica Kragic and Marten Bjorkman.论文地址论文出处:Robotics: Science and Systems,2019论文地址:https://arxiv.org/pdf/1903.11239.pdf论文摘要由于感知运动过程的内在潜伏期,熟练的机器人任务学习最好通过预测动作策略来实现。然而,训练这样的预测策略是具有挑战性的,因为它需要找到整个动作持续期间的运动激活轨迹。我们提出了一个数据高效的深度预测策略训练(DPPT)框架,该框架采用深度神经网络策略架构,将图像观察映射到一系列的运动激活。该体系结构由三个子网络组成,它们被称为感知、策略和行为的超层。感知超层和行为超层分别强制提取用合成和模拟训练样本训练的视觉和运动数据。策略超层是一个具有更少参数的小子网络,用于映射抽象流形之间的数据。利用策略搜索强化学习的方法对每一个任务进行训练。我们通过训练PR2机器人熟练抓取物体和投掷球的预测策略来证明所提出架构和学习框架的适用性。该方法的有效性证明,这些任务训练仅使用约180个真实的机器人尝试定性终端奖励。研究问题由于感知运动过程的固有延迟,机器人任务学习最好通过预测动作策略来实  现。然而,训练这样的预测策略是具有挑战性的,因为它涉及到在整个动作过程  中找到运动激活的轨迹。本文中,提出一个基于深度神经网络的数据高效深度预  测策略训练(DPPT)框架,将图像观测映射到一系列的运动激活。该体系结构  由三个子网络组成,分别称为感知层、策略层和行为层。感知层和行为层迫使我  们对视觉和行为进行抽象分别用合成训练样本和模拟训练样本训练数据。策略层  是一个较小的子网络,具有较少的参数来映射抽象流形之间的数据。使用策略搜  索强化学习的方法对每个任务进行训练。通过在 PR2 机器人上训练熟练抓取和  投球的预测策略。下图表示在机器人抛掷 ball 过程的瞬间图。研究方法由感知层、策略层和行为层组成的深度预测策略体系结构如下图所示。作为  网络输入,给出了一个中心 RGB 图像。感知层将图像数据抽象为与任务相关的  对象对应的若干空间位置。策略层将抽象状态随机映射到操作流形中的一个点。  最后,针对给定的采样动作,行为层生成一长轨迹的电机指令,并应用于机器人  连续 T 个时间步长。研究结果文章证明了所提出的结构和学习框架的适用性。该方法的有效性通过以下事  实得到了证明:这些任务仅使用 180 次真正的机器人进行训练,并提供定性的最  终奖励。Learning Agile and Dynamic Motor Skills for Legged Robots面向腿式机器人的敏捷动态特性的技能学习论文作者Jemin Hwangbo, Joonho Lee, Alexey Dosovitskiy, Dario Bellicoso,  Hoonho Lee, Vassilios Tsounis, Vladlen Koltun and Marco Hutter.论文地址论文出处:Science Robotics, 2019论文地址:https://arxiv.org/pdf/1901.08652.pdf论文摘要有腿机器人是机器人领域最大的挑战之一。动物的动态和敏捷的动作是无法用现有的方法模仿的,而现有的方法是由人类制作的。一个引人注目的替代方案是强化学习,它需要最少的工艺,并促进控制策略的自然进化。然而,到目前为止,对有腿机器人的强化学习研究主要局限于仿真,在实际系统中部署的例子很少,而且比较简单。主要原因是,用真正的机器人训练,尤其是动态平衡系统,是复杂和昂贵的。在目前的工作中,我们介绍了一种方法来训练一个神经网络策略在模拟和转移到一个最先进的腿系统,从而利用快速,自动化,和经济有效的数据生成方案。该方法被应用于ANYmal机器人,一个成熟的中型狗大小的四足系统。通过使用模拟训练的策略,四足机器人可以获得比以往方法更好的运动技能:ANYmal能够精确且高效地执行高水平的身体速度指令,比以前跑得更快,即使在复杂的配置下也能从坠落中恢复过来。研究问题近年来,腿式机器人是机器人技术中最大的挑战之一。动物的动态和敏捷的  动作是现有的方法无法模仿的,而这些方法是由人类精心设计的。一个令人信服  的替代方案是强化学习,它需要最少的技能并促使控制策略的自然演化更新。然  而,到目前为止,对腿式机器人的强化学习研究主要局限于仿真,在实际系统中  应用比较简单的例子较少。主要原因是,使用真正的机器人进行训练,尤其是使  用动态平衡系统,既复杂又昂贵。在本论文中,我们提供了一种新的方法,在模  拟中训练一个神经网络策略,并将其迁移到一个最先进的腿系统,因此我们利用  快速、自动化和经济有效的数据生成方案。研究方法对于腿式机器人的敏捷动态性技能学习的过程,首先是系统建模,针对于四  足机器人的物理参数的辨识以及确定机器人动态参数的不确定性指标,这个过程  可能需要环境参数估计,物理动态性能估计等;其次是训练驱动神经网络,这个  过程一般通过构建机器人状态到机器人电机控制的映射函数实现,随着深度神经  网络的广泛认可,这样的非线性映射函数现大多采用深度神经网络拟合;然后在  仿真中完成基于强化学习的驱动神经网络的学习过程,最后将训练好的驱动神经  网络拟合的控制策略应用在实际的系统中。整个系统的控制网络由三部分构成,首先是策略网络,用于将当前的观测量  和之前的关节状态量映射到目标关节量(下一时刻关节控制量),然后是驱动网  络,用于在刚体关节控制中将历史关节状态映射到关节力矩控制量上,机器人状  态量有各关节的位置信息 q 与速度信息 u。研究结果应用于一个复杂的中型犬大小的四足系统 ANYmal 机器人,使得在模拟中  训练的四足机器人的运动策略超越了以前的方法,ANYmal 能够精确和高效地遵  循高水平的身体速度指令,比以前跑得更快,甚至在复杂的配置中也能从跌倒中  恢复过来。Making Sense of Vision and Touch: Self Supervised Learning of  Multimodal Representations for Contact Rich Tasks理解视觉和触觉:接触任务多模态表达的自监督学习论文作者Michelle A. Lee, Yuke Zhu, Krishnan Srinivasan, Parth Shah, Silvio  Savarese, Li Fei-Fei, Animesh Garg, and Jeannette Bohg论文地址论文出处:IEEE International Conference on Robotics and Automation,2019论文地址:https://ieeexplore.ieee.org/abstract/document/8793485论文摘要在非结构化环境中,接触丰富的操作任务通常需要触觉和视觉反馈。要手动设计一个结合了这些不同特点的模式的机器人控制器并非易事。虽然深度强化学习在学习高维输入的控制策略方面显示出了成功,但由于样本的复杂性,这些算法通常难以直接在真实机器人上训练。在本文中,我们使用自我监督来学习我们的感觉输入的一个紧凑的多模态表示,然后可以用来提高我们的策略学习的样本效率。在peg插入任务上评估我们的方法,我们表明,它在不同的几何、配置和间隙上得到了推广,同时对外部扰动具有鲁棒性。我们也系统地研究了不同的自我监督学习目标和表现学习架构。给出了仿真结果和实际机器人的仿真结果。研究问题非结构化环境中需要接触的操作任务通常需要触觉和视觉反馈。但是,人工  设计融合各个不同模态的机器人控制器并非易事。尽管深度强化学习已经成功地  应用于针对高维输入的控制策略学习,但由于样本复杂性,这些算法通常难以部  署在实际的机器人上。提出使用自监督来学习感官输入的紧凑和多模态表示,以  用来提高策略学习的样本效率。研究方法以学习机器人执行需要接触操作任务的策略为目标。希望评估融合多传感器  信息的价值以及多模态表示在跨任务传递的能力。为了提高样本效率,首先学习  了基于神经网络的多传感器数据特征表示。得到的压缩特征向量用作通过强化学  习学习到的策略的输入。将操作任务建模为一个有限时间的离散马尔科夫决策过程 M,状态空间 S,  动作空间 A,状态转移动力学 T: S ×A → S,初始状态分布 ρ0,回报函数 r: S ×A → R,时间 T,折扣系数 γ ∈(0,1],为了确定最优随机策略 π : S → P(A),  我们希望最大化期望折扣奖励。自监督多模态表示学习的神经网络结构如下图所示,该网络将来自三个不同  传感器的数据作为输入:RGB 图像、32ms 窗口上的 F/T 读数以及末端执行器的  位置和速度。它将这些数据编码并融合到一个多模态表示中,基于此,可以学习  包含接触操作的控制器。这种表示学习网络是通过自监督形式进行端到端训练的。我们将具有接触的操作作为一个无模型强化学习问题,研究它在依赖多模态  反馈以及在几何、间隙和构型不确定的情况下的性能。由于选择无模型,还消除  了对精确动力学模型的需要,这是存在接触的操作中的典型困难。研究结果 提出了一种新颖的模型,将异构感官输入编码为多模态表示。一旦经过训练,  当用作用于强化学习的浅层神经网络策略的输入时,该表示就保持固定。通过自  我监督来训练表示模型,从而无需手动标注。实验表明,需要接触的任务需要视  觉和触觉的多模式反馈,此外,还进一步证明了多模态表示可以很好地迁移到其  他新任务中。A Magnetically Actuated Untethered Jellyfish Inspired Soft  Milliswimmer一个受水母启发的磁力驱动软体游泳机器人论文作者Ziyu Ren , Tianlu Wang,Wenqi Hu , and Metin Sitti论文地址论文出处:Robotics: Science and Systems, 2019论文地址:http://www.roboticsproceedings.org/rss15/p13.pdf论文摘要无栓小型软机器人可以潜在地用于医疗保健和生物医学应用程序。它们可以进入小的空间,以可编程的方式重塑它们的身体,以适应非结构化的环境,并具有多样的动态行为。然而,目前的微型软机器人功能有限,限制了其在医疗领域的应用。利用磁软复合材料的形状可编程能力,我们提出了一种无拴软微机器人(jellyfishbot),它可以像水母一样游泳,通过时间和轨迹的不对称上下拍打它的下垂。它的游动速度和方向可以通过调节外部振荡磁场的大小、频率和方向来控制。我们演示了这种水母机器人可以执行多项对医疗应用有用的任务,例如运送药物、堵塞狭窄的管道或血管,以及在基于超声成像的指导下修补目标区域。在本文中介绍的毫微机器人可以用于完全充满液体的器官,如膀胱或充气的胃。研究问题不受限制的小型软机器人可以用于医疗和生物医学应用。他们可以进入狭小  空间并以可编程方式改变形状,以适应非结构化环境并具有多种动态行为。但是,  当前的微型软机器人的功能有限,从而限制了它们在医疗中的应用。利用磁性软  复合材料形状可编程的优势,提出一种不受束缚的软体机器人,它可以像水母一  样在时间和轨迹上不对称地上下跳动,可以通过调节外部振荡磁场的大小,频率  和方向来控制其游泳速度和方向。研究方法该机器人的设计如上图所示,机器人主体由两部分组成:主动部分像肌肉一  样工作以实现划桨运动,而被动部分则填充了主动部分的间隙,使身体成为连续  的流体动力表面。身体的主动部分由软磁性材料制成,可在外部 B 场下变形。通  过将钕铁硼(NdFeB)磁性微粒(MQP-15-7,Magnequench;平均直径:5μm)  与聚合物(Ecoflex 00-10,Smooth-On Inc.)混合来制备材料,质量比为 1:1。将该混合物浇铸到涂覆有聚对二甲苯-C 的聚合物(甲基丙烯酸甲酯)(PMMA)板  上。聚合物在 60°C 固化形成厚度约为 96μm 的薄膜(下图 b-i)。使用激光切  割机从该薄膜上切出主动部分的几何形状(下图 b-ii)。从平板上移开主动部分  后,使用移液器将水滴滴在其上。活性部分可以立即包裹水滴并在表面张力作用  下形成椭圆形(下图 b-iii)。然后将有效成分放入冰箱进行冷冻,以保持椭圆形  的形状。椭圆形主动部分在振动样品磁力计(VSM,EZ7,Microsense)内部被  1.8T 均匀磁场磁化。磁化后,用非磁性弹性体(Ecoflex 00-10)填充主动部分的  间隙以形成厚度约为 20μm 的薄层薄膜(下图 b-iv)。最终机器人如下图 a-ii 所  示。研究结果提出了一种使用磁性软复合材料制作的软体游泳机器人。只需调节外部磁场  的波形,频率和振荡方向即可实现对其控制。已经进行了初步研究以发现其推进  速度与输入控制信号之间的关系。当驱动频率增加时,由于流体动力阻尼力,机  器人的跳动幅度单调减小。实验数据和模型预测都显示了对于特定控制波形的最  佳驱动频率的存在。实验表明,该机器人可用于多种潜在医疗功能。Robust Visual-Inertial State Estimation with Multiple Odometries and Efficient Mapping on an MAV with Ultra-Wide FOV Stereo Vision鲁棒多测度视觉惯性状态估计及其在具有超广角立体视觉的微型飞行器上的高效映射论文作者M. G. Mu ̈ller, F. Steidle, M. J. Schuster, P. Lutz, M. Maier, S. Stoneman, T. Tomic, and W. Sturzl论文地址论文出处:IEEE International Conference on Intelligent Robots and Systems,2018论文地址:https://ieeexplore.ieee.org/document/8594117论文摘要这里提出的飞行系统使用两对广角立体摄像机和地图的兴趣在短时间内的一个大的地区。我们提出了一种配备了两对广角立体摄像机和一个惯性测量单元(IMU)的多机系统,用于鲁棒的视觉惯性导航和高效的全向三维制图。四台摄像机可以垂直覆盖240度的立体视场(FOV),这使得该系统也适用于洞穴等狭窄和封闭的环境。在该方法中,我们从四个广角摄像机合成八个虚拟针孔摄像机。由此产生的四个针孔立体声系统中的每一个都提供了一个独立的视觉测程(VO)输入。随后,基于四种运动估计与状态估计的一致性,将四种运动估计与IMU的数据进行融合。我们描述了视觉系统的配置和图像处理,以及传感器融合和测绘管道在MAV上。我们证明了我们的多vo方法的鲁棒性视觉惯性导航和目前的三维测绘实验结果。收起会议名称:——研究问题近年来,微型飞行器(MAV)已用于各种各样的应用中。他们能够快速到达  感兴趣的点或获得以前难以或不可能到达的视角,这使它们对于诸如勘探,检查,  搜索和救援之类的任务变得非常有用。提出了一种配备两对广角立体相机和一个惯性测量单元(IMU)的多旋翼系统,以实现强大的视觉惯性导航和省时的全向  3D 映射,如下图所示。研究方法四个摄像头垂直覆盖了 240 度的立体视野(FOV),这使得该系统也适用于  狭窄和狭窄的环境,例如洞穴。在所提出的方法中,从四个广角摄像头合成了八  个虚拟针孔摄像头。所得的四个合成针孔立体系统中的每一个都为独立的视觉测  距法(VO)提供输入。随后,基于它们与状态估计的一致性,将四个单独的运  动估计与来自 IMU 的数据融合。研究结果提出了配备有四个广角摄像机的 MAV。多达 240°的垂直立体视野使 MAV  能够感知其下方,上方和前方的对象,这与避障,路径规划和有效的映射等任务  有关。实验表明,由四个具有独立关键帧的立体测距仪提供的鲁棒运动估计,也  可以从较大的视野中受益,从而可以进行状态估计。文章内容主要参考:《《2019中国人工智能发展报告》—清华大学中国工程院知识智能中心》

(0)

相关推荐