tag 标签: SLAM

相关帖子
相关博文
  • 热度 4
    2022-11-8 16:24
    2123 次阅读|
    3 个评论
    《机器人SLAM导航》之小白初探
    随着机器人的普及应用,作为长期从事工业控制领域工作的科研人员,对机器人知识需求也日益增长,得益于面包社区开放试读机制,成功申请到《机器人SLAM导航》一书。拿到这书第一反应比申请成功还高兴,内心已经笃定,再有下次必然继续申请,如果这书真能引领进入一个新的领域,推荐一下也不失为一个好策。下面上图 从作者介绍上看,作者实为一个工程实践者,从工程实践的角度介绍机器人SLAM技术,应该更具有科操作性 从目录上看,也符合由浅入深,有易到难,符合我们这种小白阅读习惯,在结构上,该书分为基础篇、硬件篇和提升篇: 可以说非常合理。看书先考前言,前言会透露本书各种信息,比如如何获取电子资料: 想必大家也看不清,这里给出链接: https://github.com/xiihoo/Books_Robot_SLAM_Navigation 然后速度下载了各种资料: 资料是挺全的,但是打开习题就让人失望了: 只有习题没有答案,臣妾真不会啊 但是并不影响学习的。 除此之外,小白还发现了本书还有视频教学课程,也提供出来供大家一起学习:http://www.xiihoo.com/# 本次分享先到此,后续如有更多想法再分享拉
  • 热度 13
    2022-1-6 11:48
    2807 次阅读|
    0 个评论
    来源:地平线HorizonRobotics 近来年,智能机器人技术在世界范围内得到了大力发展。人们致力于把机器人用于实际场景:从室内的移动机器人,到野外的自动驾驶汽车、空中的无人机、水下环境的探测机器人等等,均得到了广泛的关注。 在大多数场合中,我们研究机器人会碰到一个基础性的困难,那就是定位和建图,也就是所谓的SLAM技术。没有准确的定位与地图,扫地机就无法在房间自主地移动,只能随机乱碰;家用机器人就无法按照指令准确到达某个房间。此外,在虚拟现实(Virtual Reality)和增强现实技术(Argument Reality)中,没有SLAM提供的定位,用户就无法在场景中漫游。在这几个应用领域中,人们需要SLAM向应用层提供空间定位的信息,并利用SLAM的地图完成地图的构建或场景的生成。 一、传感器 当我们谈论SLAM时,最先问到的就是传感器。SLAM的实现方式与实现难度和传感器的形式和安装方式密切相关。 传感器分为激光和视觉两大类, 视觉下面又分三小方向。如此庞大的传感器家族,下面将带你认识每个成员的特性。 1 、传感器之激光雷达 激光雷达 是 最古老,研究也最多的SLAM传感器。它们提供机器人本体与周围环境障碍物间的距离信息。常见的激光雷达,例如SICK、Velodyne还有我们国产的rplidar等,都可以拿来做SLAM。激光雷达能以很高精度测出机器人周围障碍点的角度和距离,从而很方便地实现SLAM、避障等功能。 主流的2D激光传感器扫描一个平面内的障碍物,适用于平面运动的机器人(如扫地机等)进行定位,并建立2D的栅格地图。这种地图在机器人导航中很实用,因为多数机器人还不能在空中飞行或走上台阶,仍限于地面。在SLAM研究史上,早期SLAM研究几乎全使用激光传感器进行建图,且多数使用滤波器方法,例如卡尔曼滤波器与粒子滤波器等。 激光的优点是精度很高,速度快,计算量也不大,容易做成实时SLAM。缺点是价格昂贵,一台激光动辄上万元,会大幅提高一个机器人的成本。因此激光的研究主要集中于如何降低传感器的成本上。对应于激光的EKF-SLAM理论方面,因为研究较早,现在已经非常成熟。与此同时,人们也对EKF-SLAM的缺点也有较清楚的认识,例如不易表示回环、线性化误差严重、必须维护路标点的协方差矩阵,导致一定的空间与时间的开销,等等。 2 、传感器之视觉SLAM 视觉SLAM是21世纪SLAM研究热点之一,一方面是因为视觉十分直观,不免令人觉得:为何人能通过眼睛认路,机器人就不行呢?另一方面,由于CPU、GPU处理速度的增长,使得许多以前被认为无法实时化的视觉算法,得以在10 Hz以上的速度运行。硬件的提高也促进了视觉SLAM的发展。 RGBD。 单目相机 SLAM 简称MonoSLAM,即只用一支摄像头就可以完成SLAM。这样做的好处是传感器特别的简单、成本特别的低,所以单目SLAM非常受研究者关注。相比别的视觉传感器,单目有个最大的问题,就是没法确切地得到深度。这是一把双刃剑。 一方面,由于绝对深度未知,单目SLAM没法得到机器人运动轨迹以及地图的真实大小。直观地说,如果把轨迹和房间同时放大两倍,单目看到的像是一样的。因此,单目SLAM只能估计一个相对深度,在相似变换空间Sim(3)中求解,而非传统的欧氏空间SE(3)。如果我们必须要在SE(3)中求解,则需要用一些外部的手段,例如GPS、IMU等传感器,确定轨迹与地图的尺度(Scale)。 另一方面,单目相机无法依靠一张图像获得图像中物体离自己的相对距离。为了估计这个相对深度,单目SLAM要靠运动中的三角测量,来求解相机运动并估计像素的空间位置。即是说,它的轨迹和地图,只有在相机运动之后才能收敛,如果相机不进行运动时,就无法得知像素的位置。同时,相机运动还不能是纯粹的旋转,这就给单目SLAM的应用带来了一些麻烦,好在日常使用SLAM时,相机都会发生旋转和平移。不过,无法确定深度同时也有一个好处:它使得单目SLAM不受环境大小的影响,因此既可以用于室内,又可以用于室外。 相比于单目, 双目相机 通过多个相机之间的基线,估计空间点的位置。与单目不同的是,立体视觉既可以在运动时估计深度,亦可在静止时估计,消除了单目视觉的许多麻烦。不过,双目或多目相机配置与标定均较为复杂,其深度量程也随双目的基线与分辨率限制。通过双目图像计算像素距离,是一件非常消耗计算量的事情,现在多用FPGA来完成。 RGBD 相机 是2010年左右开始兴起的一种相机,它最大的特点是可以通过红外结构光或Time-of-Flight原理,直接测出图像中各像素离相机的距离。因此,它比传统相机能够提供更丰富的信息,也不必像单目或双目那样费时费力地计算深度。目前常用的RGBD相机包括Kinect/Kinect V2、Xtion等。不过,现在多数RGBD相机还存在测量范围窄、噪声大、视野小等诸多问题。出于量程的限制,主要用于室内SLAM。 三、视觉 SLAM 框架 视觉SLAM几乎都有一个基本的框架。一个SLAM系统分为四个模块(除去传感器数据读取) VO 、后端、建图、回环检测。 本期我们简要介绍各模块的涵义,之后再详细介绍其使用方法。 1 、SLAM 框架之视觉里程计 Visual Odometry,即视觉里程计。它估计两个时刻机器人的相对运动(Ego-motion)。在激光SLAM中,我们可以将当前的观测与全局地图进行匹配,用ICP求解相对运动。而对于相机,它在欧氏空间里运动,我们经常需要估计一个三维空间的变换矩阵——SE3或Sim3(单目情形)。求解这个矩阵是VO的核心问题,而求解的思路,则分为基于特征的思路和不使用特征的直接方法。 基于特征的方法是目前VO的主流方式。对于两幅图像,首先提取图像中的特征,然后根据两幅图的特征匹配,计算相机的变换矩阵。最常用的是点特征,例如Harris角点、SIFT、SURF、ORB。如果使用RGBD相机,利用已知深度的特征点,就可以直接估计相机的运动。给定一组特征点以及它们之间的配对关系,求解相机的姿态,该问题被称为PnP问题(Perspective-N-Point)。PnP可以用非线性优化来求解,得到两个帧之间的位置关系。 不使用特征进行VO的方法称为直接法。它直接把图像中所有像素写进一个位姿估计方程,求出帧间相对运动。例如,在RGBD SLAM中,可以用ICP(Iterative Closest Point,迭代最近邻)求解两个点云之间的变换矩阵。对于单目SLAM,我们可以匹配两个图像间的像素,或者像图像与一个全局的模型相匹配。直接法的典型例子是SVO和LSD-SLAM。它们在单目SLAM中使用直接法,取得了较好的效果。目前看来,直接法比特征VO需要更多的计算量,而且对相机的图像采集速率也有较高的要求。 2 、SLAM 框架之后端 在VO估计帧间运动之后,理论上就可以得到机器人的轨迹了。然而视觉里程计和普通的里程计一样,存在累积误差的问题(Drift)。直观地说,在t1和t2时刻,估计的转角比真实转角少1度,那么之后的轨迹就全部少掉了这1度。时间一长,建出的房间可能由方形变成了多边形,估计出的轨迹亦会有严重的漂移。所以在SLAM中,还会把帧间相对运动放到一个称之为后端的程序中进行加工处理。 早期的SLAM后端使用滤波器方式。由于那时还未形成前后端的概念,有时人们也称研究滤波器的工作为研究SLAM。SLAM最早的提出者R. Smith等人就把SLAM建构成了一个EKF(Extended Kalman Filter,扩展卡尔曼滤波)问题。他们按照EKF的形式,把SLAM写成了一个运动方程和观测方式,以最小化这两个方程中的噪声项为目的,使用典型的滤波器思路来解决SLAM问题。 当一个帧到达时,我们能(通过码盘或IMU)测出该帧与上一帧的相对运动,但是存在噪声,是为运动方程。同时,通过传感器对路标的观测,我们测出了机器人与路标间的位姿关系,同样也带有噪声,是为观测方程。通过这两者信息,我们可以预测出机器人在当前时刻的位置。同样,根据以往记录的路标点,我们又能计算出一个卡尔曼增益,以补偿噪声的影响。于是,对当前帧和路标的估计,即是这个预测与更新的不断迭代的过程。 21世纪之后,SLAM研究者开始借鉴SfM(Structure from Motion)问题中的方法,把捆集优化(Bundle Adjustment)引入到SLAM中来。优化方法和滤波器方法有根本上的不同。它并不是一个迭代的过程,而是考虑过去所有帧中的信息。通过优化,把误差平均分到每一次观测当中。在SLAM中的Bundle Adjustment常常以图的形式给出,所以研究者亦称之为图优化方法(Graph Optimization)。图优化可以直观地表示优化问题,可利用稀疏代数进行快速的求解,表达回环也十分的方便,因而成为现今视觉SLAM中主流的优化方法。 3 、SLAM 框架之回环检测 回环检测,又称闭环检测(Loop closure detection),是指机器人识别曾到达场景的能力。如果检测成功,可以显著地减小累积误差。回环检测实质上是一种检测观测数据相似性的算法。对于视觉SLAM,多数系统采用目前较为成熟的词袋模型(Bag-of-Words, BoW)。词袋模型把图像中的视觉特征(SIFT, SURF等)聚类,然后建立词典,进而寻找每个图中含有哪些“单词”(word)。也有研究者使用传统模式识别的方法,把回环检测建构成一个分类问题,训练分类器进行分类。 回环检测的难点在于,错误的检测结果可能使地图变得很糟糕。这些错误分为两类:1.假阳性(False Positive),又称感知偏差(Perceptual Aliasing),指事实上不同的场景被当成了同一个;2.假阴性(False Negative),又称感知变异(Perceptual Variability),指事实上同一个场景被当成了两个。感知偏差会严重地影响地图的结果,通常是希望避免的。一个好的回环检测算法应该能检测出尽量多的真实回环。研究者常常用准确率-召回率曲线来评价一个检测算法的好坏。 来源:地平线HorizonRobotics
  • 热度 13
    2022-1-6 11:45
    1891 次阅读|
    0 个评论
    来源:旷视研究院/ SLAM组负责人刘骁 这次分享的主题集中在SLAM与三维重建两方面,大纲如下: SLAM 研究内容与应用概要 专题1:VIO & 多传感器融合 专题2:Struct SLAM 专题3:Visual Localization 专题4:激光 SLAM 专题5:三维重建 专题6:语义 SLAM & HDMap SLAM 研究内容与应用概要 三维视觉的基本问题包括SLAM、三维重建、Stereo(深度估计)、姿态估计、图像拼接、视频编辑等;其中,SLAM与三维重建是机器人领域常涉及的问题。 SLAM技术全称为Simultaneous Localization and Mapping(即时定位与地图重建),简单而言,它包含三大问题:1)“我在哪儿”,2)“我的地图呢”,3)“如何到达目的地”。通常学术上SLAM更多地指的是前两个问题。 对于第一个问题“我在哪儿”,首先涉及的是机器人定位技术,进一步由于机器人是运动的,还会涉及跟踪技术;对于第二个问题“我的地图呢”,由于机器人大多需要在陌生环境工作,所以还涉及到地图构建技术;另外,针对第三个问题“如何到达目的地”,考虑到机器人需要在复杂环境中具备规划路径、避开障碍的能力,因此涉及到了导航与避障技术。 综合来看,SLAM不仅对实时性要求很高,同时也需要借助多传感器的信息来工作,它不仅包含视觉也包含图形学技术。一般而言,SLAM由多种算法组合成一个系统进行工作,因此是算法+系统的综合应用。 SLAM问题的数学描述 如果从数学角度描述SLAM问题,通常涉及到运动方程与观测方程,如下图。从概率角度看,假设给定一系列传感器,则有两个待估计量需要计算:姿态与路标(一般指空间中的几何特征如点、线、面等),从而整个SLAM问题可以归结为一个后验概率最大的问题。 对于SLAM的求解过程,一般分为三步: 设定参数化方法,即如何用点、线、面这些几何参数化方法描述路标; 建立数据关联,例如在传统SLAM中的特征法,将两个点通过特征进行匹配,从而获得关联; 在给定数据关联、姿态以及路标的估计下,根据当前的观测,求解出最优的姿态与路标的解。 需要说明的是,由于假设观测噪声符合高斯分布,因此整个估计又可以转化为一个最小二乘问题,目前主流采用非线性优化方式来求解。 下方动图以纯视觉SLAM为例,展示了SLAM的工作方式。首先,在画面左方可见一个连续的视频输入,机器人在运动的过程中会给出其实时估计的运动姿态(红色),同时以白点的方式将周围三维空间绘制出来,此即跟踪与地图构建的过程。 具体到利用特征法来进行姿态估计和三维重建,首先需要对两幅图进行特征提取与特征匹配,从而建立数据关联;然后,将该数据关联与人们希望求解的空间中的姿态和路标(三维点)待估计量建立约束(例如在纯视觉SLAM中可能会使用到重投影误差约束);最后将该问题转化为非线性最小二乘进行求解即可。 专题1:VIO & 多传感器融合 由于基于纯视觉的SLAM方法在实际应用的鲁棒性不高,会受到光照、运动速度过快等因素的干扰,因此实践中多以多传感器方法来构建SLAM。这其中最简单的是VIO问题,即结合了视觉与IMU观测的SLAM问题。 通常情况下,IMU提供包括陀螺仪与加速度计的观测,有些还提供地磁计观测。进一步,对这些观测进行积分,得到IMU预积分残差,再配合基于纯视觉特征的重投影误差,就可以进行联合优化,来求解VIO问题。 VIO经常会应用在移动端的AR设备上,比如AR尺子、AR游戏等。在这些场景下,可以利用移动端传感器(相机、IMU等)实现精确定位和稀疏地图构建,并完成人机交互。下图给出了移动端场景中实现VIO经常涉及的关键技术。 与移动端不同,由于机器人设备上传感器更多,所以它属于多传感器融合的问题。如下图,展示了结合多个相机、IMU与轮速记进行观测的问题。可以看到,与VIO问题相似,这里也是将所有误差项进行联合优化。 下方展示了旷视机器人团队利用多传感器融合进行的实验。可以看到整个过程较为鲁棒,在机器人场景下累计误差远小于基于VIO的VINS-FUSION方法。另外由于VINS-FUSION没有对平面进行优化,因此如果物体在平面运动时间较长,系统估计的轨迹并不在同一个平面上。 由于引入了多种传感器,整个系统复杂度更高,需要注意避免系统在长时间运转下出现的可观维度的变化,同时还要保证不能引入新的误差;另外,多种传感器的引入对于标定工作提出巨大挑战,具体可参考旷视研究院SLAM组在知乎上发布的标定系列文章(关注知乎专栏“ 旷视SLAM组 ”查阅详情);第三,整个多传感器融合系统在实时运行过程中以及标定过程中都存在很多特殊运动下的可观性问题,合理分析并规避问题可以更好地估计系统变量。 专题2:Struct SLAM(结构化SLAM) 如上所述,传统的无论是纯视觉还是VIO方法均是基于点的SLAM系统。 然而,为了构建一个更鲁棒、高精度的SLAM系统,同时也是为了寻找更紧凑、更直观的地图表示方式,就要充分利用图像中的点、线、面等信息。接下来介绍的Struct SLAM系统则使用空间中的结构化信息进行计算。 下图展示了用点与用结构化信息进行环境特征跟踪的区别,上方为点跟踪,下方为线跟踪。可以发现,对于基于点的特征跟踪,当前后帧的光照变化较大时,跟踪不稳定,即是跟踪上了,描述也匹配错误;相反,基于线的跟踪能很好克服这一困难。 分析原因可知,点结合线能够带来丰富的测量信息,另外直线、曲线这些有关环境边缘结构的信息对光照更加鲁棒,同时对整个SLAM地图建构而言,直线与曲线的表示力度更好,也更直观。 下图展示了完全基于线进行特征跟踪的双目系统。左下角绿色画面展示了由线创建的地图,可以发现,相对于用点进行地图建构的系统,线地图的可解释性做得更好。另外,在这个场景中,能够提取的点特征也远少于线特征,所以基于点特征工作的系统在这种条件下无法良好工作。 有了基于线的SLAM系统之后,进一步的直观想法自然是在系统中进行点、线融合。下图展示了融合点与直线表示的PL-VIO系统。在测试集上的实验结果显示,相较于纯用点表示的VIO系统,PL-VIO明显精度更高。 进一步,由于空间中很多边缘未必是直线,为了能够利用这些信息,旷视研究员也搭建了一个基于曲线的VO系统。 如上所述,点、线、面信息在表示特征时各具优势,因此结合三者进行工作的想法自然就被提上日程。下图展示了旷视研究院提出的基于三种表示的PLP-VIO系统,该系统可以融合点、线、面三个特征,同时也能把其约束都利用起来,实现了在空间中进行稠密建图的能力,同时相较于不用面的VIO系统,其精度也有了进一步提升 。 专题3:Visual Localization 前面介绍的SLAM系统融合了建图与定位工作,这在地图构建时经常涉及,但是当地图已经建好,进入实际使用阶段后,建图与定位往往是分离的。因此,本节介绍基于纯视觉的定位。 考虑到地图构建和应用的时间可能不同,不同时间下的环境光照、景物细节也可能发生变化,所以如果用传统视觉SLAM提取描述子的方法,则会因其适应性差,而导致系统工作性能不佳。为了获得高鲁棒性的定位效果,当前多采用基于深度学习的提取描述子的方法。 一般的定位流程如下:离线时,用前文的SLAM地图构建方法建立一个稀疏的点云地图,同时对关键帧提取全局和局部特征,构建数据库。如果场景较大,关键帧较多,则需要使用一些量化方法来对地图进行压缩。 当在线定位时,通过对当前画面提取全局特征,将其置于数据库搜索出若干相似帧,从而进行粗定位;进一步,在这些关键帧中进行2D-3D匹配,用基于深度学习的局部特征来进行精确定位。以此方法,最终能够得到纯视觉的定位效果。 这种方法的主要难点在于,如何设计能够很好学习局部、全局特征的网络,能够对光照等动态变化更加鲁棒;另外,实际应用过程中对地图的大小要求非常严格,不允许出现1GB+大小的地图,因此往往会使用很多地图压缩技术来压缩地图大小,缩短匹配时间。 下方展示了机器人场景下基于纯视觉的室内定位效果。 视觉定位的另一个典型应用场景是手机的室内定位和AR导航。下图演示了旷视研究院SLAM团队的工作。基于对室内场景建立的地图,可以直接使用手机摄像头进行定位,定位后,结合路径规划算法与VIO技术可以实现室内的实时AR导航。 专题4:激光 SLAM 在机器人SLAM中,当前更多采取的方式是激光SLAM,其问题定义与纯视觉SLAM类似,也是同时求解地图与位姿。不同之处在于,由于由激光得到的位姿更为精确,所以通常首先会求出激光的位姿,再利用该已知位姿进行建图。 在地图构建方式上,对于2D激光,往往会用栅格地图来表示,比如黑色表示激光遇到障碍物,白色为可通行区域,灰色为未观测区域;对于3D激光,一般会使用点云地图;此外还有TSDF地图,即记录到物体边缘距离的地图。 当然,无论哪种地图表示,其位姿估计一般都有scan-to-scan与scan-to-map两种方式。另外,激光SLAM一般也是多传感器问题,大多数场景下(尤其是工业机器人)使用的都是单线激光,特征非常少,在环境单一、凌乱地区定位效果很差。所以多传感器融合对提升定位鲁棒性至关重要。 下图展示了旷视研究院基于改进的ISDF方法开发的2D激光建图与定位系统。与其他激光SLAM方法相比,该方法能够更加精确、鲁棒地完成建图与定位工作,能够实现5毫米精度的定位效果。 下图展示的是高精度到点的算法效果,图中搭载该套算法的是旷视S500机器人,它正在进行滚轮对接的demo演示。可以发现,这种场景对于机器人的到点精度要求很高,需要实现1厘米以下的重复到点精度,否则对接可能出现误差。这里展示的机器人能够实现5毫米的到点精度,同时还能较少地受到周围动态环境的影响。 专题5:三维重建 三维重建即用深度传感器的输入,构建稠密点云地图的技术,一般分为刚体与非刚体两种实时重建。 在刚体的实时重建中,一般会有两种常用的技术,一种是Surfel-based方法,基于物体表面,适用于重建房间等场景;另一种是TSDF-based方法,适用于重建小型物体。 下图演示了Surfel-based重建房间的过程,目前旷视研究院在手机端可以实现10赫兹的重建帧率。 下图演示了TSDF的重建方式,适用于小物体重建,精度一般较高。 对于非刚体重建,一般也有两种方式,一种是Template-free模式,即没有模板的重建,对任意动态的场景进行重建;另一种是Template-based,即基于已有的物体模板,对其进行参数化的估计配准,从而将标准人体或人脸模板近似对应到当前观测上。这种模板式重建方法适用于不需要高精度要求的场景,例如娱乐类软件。 另外,三维重建技术也可以用于三维物体识别领域,如工业机器人分拣场景,以三维点云的匹配技术确定零部件的位置与姿态,进一步机器人可以根据零部件的预设操作位进行分拣操作。这种方式的优点在于不需要进行大量学习也可以实现较高的精度,是当前主流使用的技术。 专题6:语义SLAM & HDMap 与传统SLAM不同,语义SLAM是使用语义信息进行观测的SLAM系统,相较传统SLAM系统,语义SLAM系统不容易受到光照、动态、遮挡等因素的干扰。一般情况下,语义信息包含了类别、置信度与位置信息。 对于语义信息的参数化表示而言,以检测场景为例,可以将检测框的中心点作为观测,然后将该点视为是物体3D中心点的投影,如此便可以将观测与要求解的量关联起来。 对于语义SLAM的数据关联,由于语义属粗粒度信息,无法像传统SLAM一样使用诸如描述子的方式来进行特征点之间的匹配, 建立数据关联。因此在语义SLAM中进行数据关联通常不使用极大似然估计,而是使用最大期望估计,即EM估计。 下图展示了一个完全基于图像检测的语义SLAM系统,它能够通过检测地图中的物体来对其进行识别与定位。值得一提的是,这种技术也可能辅助完全基于图像的物体检测系统,因为语义SLAM系统自身拥有姿态信息,假若其在环境中走一圈,观察到同样的车辆(如果物体未动),此时就可以不需要使用重识别类的方法,而是基于该物体在空间中的三维点云位置判断其属于同一ID。 下图展示了在已经建好的稀疏三维地图中,仅使用分割信息作为观测,不使用任何描述子,而是通过特征点的位置和类别的方式进行定位的过程。可以看到,相比纯粹SIFT的效果,用语义进行定位的效果与真值更加接近,而基于SIFT的定位会产生较大误差;这种方法的另一优点在于,由于仅仅保存了空间中三维点的语义信息,而没有存描述信息,因此地图大小通常非常小,以kb级别计算,即是在非常大的场景,人们也能够很容易地应用这种定位方式。 下图展示了在室外无人驾驶场景,完全基于灯杆作为唯一观测实现的语义定位系统,在包含了整个城市级别信息的情况下,地图也只有10kb大小,另外由于观测只有灯杆,所以运行速度也非常快,实验结果显示,在这种仅有简单灯杆信息作为观测的情况下,定位精度也可以达到厘米级别。 结语 今天介绍的多种SLAM系统之间各具特点,在工业应用当中,并没有一种所谓的 “Super SLAM” 系统,能够适用于所有场景。因此当前多采用“对症下药”的方式,针对不同的场景使用不同的技术方案。 来源:旷视研究院/ SLAM组负责人刘骁 刘骁,硕士毕业于北京航空航天大学计算机系。先后在腾讯研究院、微信团队工作,担任高级图像研究员,进行图像检索、增强现实等方向研发。2017年加入旷视研究院担任 SLAM 组负责人,专注于 SLAM、AR、三维重建等方向研究,相关成果在旷视机器人等业务中得到广泛应用。
相关资源