日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

激光SLAM论文简单导读--LOAM、VLOAM、LeGO-LOAM、LIO-SAM、LVI-SAM、LIMO、LIC-FUSION、TVL-SLAM、R2LIVE、R3LIVE

發(fā)布時(shí)間:2023/12/29 编程问答 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 激光SLAM论文简单导读--LOAM、VLOAM、LeGO-LOAM、LIO-SAM、LVI-SAM、LIMO、LIC-FUSION、TVL-SLAM、R2LIVE、R3LIVE 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

激光SLAM論文簡(jiǎn)單導(dǎo)讀--LOAM、VLOAM、LeGO-LOAM、LIO-SAM、LVI-SAM、LIMO、LIC-FUSION、TVL-SLAM、R2LIVE、R3LIVE

  • 時(shí)間線
  • 開(kāi)篇巨作LOAM (張輯,RSS 2014, CMU)
    • 算法框圖
    • LIDAR ODOMETRY
    • LIDAR MAPPING
    • 思考
  • 激光視覺(jué)里程計(jì)VLOAM(張輯,ICRA2015, CMU)
    • 視覺(jué)里程計(jì)
    • 雷達(dá)里程計(jì)
  • 激光-視覺(jué)-慣性里程計(jì)(張輯,JFR2018, CMU)
    • IMU預(yù)測(cè)子系統(tǒng)
    • VIO子系統(tǒng)
    • lidar 匹配子系統(tǒng)
  • 傳感器退化
  • 基于給定地圖的定位
  • 結(jié)果對(duì)比
  • LeGO-LOAM:利用地面和平面聚類進(jìn)行優(yōu)化(Tixiao Shan, 2018, Stevens Institute of Technology)
    • 分割與特征提取
    • Lidar Odometry
    • Lidar Mapping
  • 緊耦合IMU的激光慣性里程計(jì)--LIO SAM (Tixiao Shan, 2020,MIT)
    • IMU預(yù)積分約束
    • 雷達(dá)里程計(jì)約束
    • GPS因子和回環(huán)因子
  • LVI-SAM: 在LIO-SAM的基礎(chǔ)上融合視覺(jué)(Tixiao Shan, 2021,MIT)
  • LIC-FUSION: 基于MSCKF框架的雷達(dá)-慣性-視覺(jué)融合 (左星星, 2019, 浙大)
    • 系統(tǒng)介紹
  • LIC-FUSION2.0:在LIC-FUSION的基礎(chǔ)上添加滑窗和平面跟蹤算法(左星星,IROS2020,浙大/ETH)
  • LIMO:激光單目視覺(jué)里程計(jì)(Johannes Graeter,Karlsruhe Institute of Technology,IROS2018)
  • PL-LVO:基于點(diǎn)線特征的激光視覺(jué)里程計(jì)(Shi-Sheng Huang,IROS2020,清華)
  • R2LIVE:激光-視覺(jué)-IMU緊耦合的狀態(tài)估計(jì)器(lin jiarong, 港大, 2021)
  • R3LIVE:雷達(dá)慣性和視覺(jué)慣性里程計(jì)的融合(lin jiarong, 港大, 2022)
  • SVIL-SLAM:雙目視覺(jué)慣性雷達(dá)SLAM(Weizhao Shao, CMU,IROS2019)
  • TVL-SLAM:緊耦合視覺(jué)-雷達(dá)SLAM
  • 激光與視覺(jué)之間的輔助
  • 融合方法

本博客以簡(jiǎn)述為主,不打算細(xì)講論文細(xì)節(jié),給出了相關(guān)詳細(xì)導(dǎo)讀的鏈接,歡迎溝通交流。

時(shí)間線

開(kāi)篇巨作LOAM (張輯,RSS 2014, CMU)

LOAM是該方向的開(kāi)山鼻祖,其主要的貢獻(xiàn)在于使用前端里程計(jì)和后端建圖優(yōu)化兩個(gè)線程(可能借鑒了視覺(jué)SLAM思想?),實(shí)現(xiàn)一個(gè)高精度激光SLAM系統(tǒng), 該系統(tǒng)實(shí)際實(shí)驗(yàn)中采用的硬件是一個(gè)平面激光雷達(dá)加一個(gè)旋轉(zhuǎn)軸,也取得優(yōu)異的結(jié)果。

困難點(diǎn):激光數(shù)據(jù)接收時(shí)間不同,運(yùn)動(dòng)導(dǎo)致的畸變很明顯嚴(yán)重, 不利于后續(xù)的定位建圖。
解決辦法:采用兩個(gè)線程(前端frame-frame里程計(jì) + 后端frame-map優(yōu)化)進(jìn)行定位建圖任務(wù)。

算法框圖


論文對(duì)于激光雷達(dá)數(shù)據(jù),定義了兩個(gè)不同的術(shù)語(yǔ):scan和sweep,依據(jù)論文,個(gè)人理解為前者為平面激光雷達(dá)繞本體旋轉(zhuǎn)軸一周形成的點(diǎn)云,頻率為10hz,該頻率和平面激光雷達(dá)的旋轉(zhuǎn)頻率是一致的, 后者則是指激光雷達(dá)繞外面的軸旋轉(zhuǎn)一個(gè)周期(180度)的點(diǎn)云,為1hz,相當(dāng)于10scans的合成(而不是現(xiàn)在常用的那種昂貴的3D激光雷達(dá))。流程圖中,p^\widehat{p}p?代表一個(gè)scan的點(diǎn)云,pkp_kpk?代表一個(gè)sweep的點(diǎn)云。每一個(gè)scan結(jié)束都會(huì)進(jìn)行一次Lidar Odometry, 每一次sweep結(jié)束才進(jìn)行一次Lidar Mapping。

LIDAR ODOMETRY

特征提取: 設(shè)計(jì)下列公式計(jì)算一個(gè)度量值,用于判斷每個(gè)點(diǎn)屬于平面點(diǎn)或者線段點(diǎn)。注意該過(guò)程從每個(gè)獨(dú)立的scan中提取特征(原因可能是由于傳感器限制)。

在該度量中,c值較大的為edge point, c值較小的為planar point。此外還有一些工程策略,使得選擇的特征分布均勻且可靠。

特征數(shù)據(jù)關(guān)聯(lián):采用frame-frame的思想尋找當(dāng)前幀相對(duì)上一幀的匹配, 注意當(dāng)前幀是隨著時(shí)間在增長(zhǎng)的,采用最近匹配方法尋找點(diǎn)-線和點(diǎn)-面匹配,最后通過(guò)最小化他們之間的距離來(lái)優(yōu)化位姿。

整個(gè)里程計(jì)端的算法如下:

LIDAR MAPPING

后端mapping采用sweep-local map的方式進(jìn)行,當(dāng)前端一個(gè)sweep結(jié)束時(shí),即啟動(dòng)該過(guò)程。
在k+1 sweep結(jié)束時(shí),里程計(jì)模塊生成了一個(gè)去畸變后的點(diǎn)云pˉk+1\bar{p}_{k+1}pˉ?k+1?, 該sweep [tk+1t_{k+1}tk+1?, tk+2t_{k+2}tk+2?]內(nèi)的位姿變換Tk+1LT_{k+1}^LTk+1L?,mapping階段將該點(diǎn)云pˉk+1\bar{p}_{k+1}pˉ?k+1?匹配和注冊(cè)到世界系下。

Mapping階段的匹配和位姿估計(jì)流程和Odometry階段類似,但做了一些參數(shù)上的適應(yīng)和工程上的優(yōu)化。這一階段在當(dāng)前sweep特征提取的數(shù)量是Odometry階段的10倍,然后根據(jù)位姿變換將其投影到世界系,再利用最近匹配方法尋找匹配,不同的地方在于, 尋找匹配線和面時(shí)是采用先求點(diǎn)云周圍協(xié)方差,然后進(jìn)行特征值分解的方法。對(duì)于邊緣點(diǎn),特征值的某一個(gè)值會(huì)遠(yuǎn)遠(yuǎn)大于另外兩個(gè)值;而對(duì)于面點(diǎn),兩個(gè)特征值會(huì)遠(yuǎn)遠(yuǎn)大于另一個(gè)值。最后也是通過(guò)最小化點(diǎn)-線、點(diǎn)-面距離來(lái)估計(jì)位姿。

思考

  • 為何如此提取點(diǎn)線特征?點(diǎn)線特征在整個(gè)位姿估計(jì)中的作用分別是?論文缺乏對(duì)應(yīng)的消融實(shí)驗(yàn)(包括特征提取涉及到的工程化手段帶來(lái)的好處沒(méi)有實(shí)驗(yàn)支撐)
  • 采用現(xiàn)在的3D激光雷達(dá)以后,這種特征提取方法是否可以進(jìn)行優(yōu)化?

激光視覺(jué)里程計(jì)VLOAM(張輯,ICRA2015, CMU)

算法簡(jiǎn)介:先利用視覺(jué)里程計(jì)估計(jì)位姿,并將雷達(dá)點(diǎn)云數(shù)據(jù)進(jìn)行高頻率低精度注冊(cè),然后基于雷達(dá)里程計(jì)的scan匹配同時(shí)優(yōu)化運(yùn)動(dòng)估計(jì)和點(diǎn)云注冊(cè)。相較LOAM而言,利用更高頻率的視覺(jué)里程計(jì)提高點(diǎn)云去畸變和匹配的效果,進(jìn)而提高算法精度。位姿估計(jì)過(guò)程并沒(méi)用到視覺(jué)特征,是一個(gè)典型的視覺(jué)輔助激光的方案。算法的流程圖如下:

視覺(jué)里程計(jì)

視覺(jué)里程計(jì)模塊,利用視覺(jué)特征做幀-幀之間的快速相對(duì)位姿估計(jì),從雷達(dá)數(shù)據(jù)中獲取部分視覺(jué)特征點(diǎn)的深度值。

雷達(dá)里程計(jì)

雷達(dá)里程計(jì)由兩階段組成: sweep-sweep優(yōu)化運(yùn)動(dòng)估計(jì) + sweep-map在地圖上匹配和注冊(cè)當(dāng)前sweep。該過(guò)程與LOAM的很類似,可看作是LOAM的odometry和mapping的結(jié)合,不同之處在于操作對(duì)象都是sweep,而不是scan。最后結(jié)合視覺(jué)里程計(jì),可以輸出與視覺(jué)相同頻率的位姿。

從整體來(lái)看,視覺(jué)的作用主要是用于點(diǎn)云去畸變和提供后續(xù)點(diǎn)云匹配時(shí)的初始位姿,而最終的位姿估計(jì)并沒(méi)用上視覺(jué)信息,在KITTI上的表現(xiàn)比LOAM好一丟丟。

激光-視覺(jué)-慣性里程計(jì)(張輯,JFR2018, CMU)

常見(jiàn)的激光視覺(jué)慣性里程計(jì)采用卡爾曼濾波或者因子圖優(yōu)化的方法,但作者觀察到,本體位姿估計(jì)的漂移頻率遠(yuǎn)遠(yuǎn)低于模塊自身的運(yùn)行頻率,因此采用從粗到細(xì)的流水線pipeline,該方法采用一種模塊化的數(shù)據(jù)處理流程用于處理圖像、imu和雷達(dá)數(shù)據(jù),并通過(guò)多層次的優(yōu)化來(lái)進(jìn)行運(yùn)動(dòng)估計(jì)和建圖, 該流程如下圖所示

主要貢獻(xiàn)如下:

  • We propose a modularized data processing pipeline to leverage range, vision, and inertial sensing for motion estimation and mapping through mulilayer optimization. Therefore, it achieves high accuracy and low drift.提出一種模塊化的數(shù)據(jù)處理流程,利用雷達(dá)、視覺(jué)和慣性數(shù)據(jù)進(jìn)行基于多層次優(yōu)化的運(yùn)動(dòng)估計(jì)和建圖;
  • The proposed pipeline is dynamically reconfigurable. It fully or partially bypasses failure modules and combines the rest of the pipeline to handle sensor degradation. Therefore, it can handle environmental degradation and aggressive motion. 所提方法具有動(dòng)態(tài)自適應(yīng),可以應(yīng)對(duì)傳感器退化的情況;
  • The proposed pipeline employs a two‐level voxel representation and a multithread processing implementation to accelerate scan matching.所提流程采用兩層次的體素表征方法來(lái)描述地圖,并采用多線程加速匹配;
  • The proposed pipeline is extendable to localization on an existing map and therefore can enable collaborative mapping, for example, between ground and air。所提流程被擴(kuò)展到基于給定地圖的定位,因此也可用于協(xié)同建圖。
    這個(gè)算法可分為四個(gè)子系統(tǒng):IMU預(yù)測(cè)子系統(tǒng), VIO子系統(tǒng)和雷達(dá)匹配子系統(tǒng)。

IMU預(yù)測(cè)子系統(tǒng)

這一部分主要涉及相機(jī)系下(此處與常用的IMU系下的測(cè)量模型不同)的IMU測(cè)量模型和bias更新。

VIO子系統(tǒng)

VIO子系統(tǒng)主要借鑒作者之前的工作《Real‐time depth enhanced monocular odometry》,流程如下:

該系統(tǒng)是一個(gè)基于關(guān)鍵幀和特征點(diǎn)的VIO,不同之處在于只估計(jì)位姿,不估計(jì)特征點(diǎn)位置,這是因?yàn)閺睦走_(dá)獲取的深度值足夠準(zhǔn)確。

lidar 匹配子系統(tǒng)

該子系統(tǒng)主要參考了作者之前的工作LOAM,參考其中的sweep-map匹配過(guò)程,整個(gè)子系統(tǒng)的流程如下:

此外還利用voxel對(duì)Map進(jìn)行存儲(chǔ)和多線程技術(shù),以加速該匹配過(guò)程。

傳感器退化

本方法可以有效應(yīng)對(duì)傳感器退化問(wèn)題

基于給定地圖的定位

整體流程與里程計(jì)流程一致,不同點(diǎn)在于雷達(dá)匹配階段匹配的是給定地圖,而且是一段時(shí)間(2s)內(nèi)累積的lidar scan與給定地圖進(jìn)行匹配(降低算力考慮)。

結(jié)果對(duì)比


其中One-step方法的pipeline如下:

LeGO-LOAM:利用地面和平面聚類進(jìn)行優(yōu)化(Tixiao Shan, 2018, Stevens Institute of Technology)

LOAM的限制:計(jì)算資源較大, 低算力平臺(tái)難以滿足,因?yàn)樗枰?jì)算稠密三維點(diǎn)云的每一個(gè)點(diǎn)特征;當(dāng)應(yīng)用與地面無(wú)人車時(shí),地面及其附近元素引起的噪聲將一直影響算法。
解決辦法:針對(duì)地面附近元素帶來(lái)的干擾,提出使用地面分割的方法以提高對(duì)地面附近不穩(wěn)定元素的適應(yīng)性;針對(duì)算力問(wèn)題,提出使用兩階段優(yōu)化法來(lái)估計(jì)位姿:首先利用地面來(lái)估計(jì)[tzt_ztz?, θroll\theta_{roll}θroll?, θpitch\theta_{pitch}θpitch?],然后利用剩下部分的邊緣點(diǎn)元素來(lái)估計(jì)其余的[txt_xtx?, tyt_yty?, θyaw\theta_{yaw}θyaw?],使得整個(gè)系統(tǒng)可以在嵌入式平臺(tái)上面實(shí)時(shí)運(yùn)行。

整個(gè)算法流程框圖如下:

分割與特征提取

采用傳統(tǒng)的幾何和圖像處理方法對(duì)激光點(diǎn)云進(jìn)行分割,以提取地面。特征提取與LOAM的一致,最終只保留使用屬于地面部分的平面點(diǎn)和其他部分的邊緣點(diǎn),點(diǎn)云示意如下:

Lidar Odometry

與LOAM的機(jī)制一樣,采用幀-幀之間的點(diǎn)-線和點(diǎn)-面匹配來(lái)估計(jì)雷達(dá)里程計(jì)。不同之處在于,該方法只對(duì)屬于地面的平面點(diǎn)和非地面點(diǎn)的邊緣點(diǎn)進(jìn)行匹配,且在匹配過(guò)程中利用了分割的類別信息以篩出錯(cuò)誤的匹配。然后采用兩階段的L-M優(yōu)化法來(lái)估計(jì)位姿:首先最小化地平面點(diǎn)到地面的距離來(lái)估計(jì)[tzt_ztz?, θroll\theta_{roll}θroll?, θpitch\theta_{pitch}θpitch?],然后利用剩下部分的邊緣點(diǎn)元素來(lái)估計(jì)其余的[txt_xtx?, tyt_yty?, θyaw\theta_{yaw}θyaw?]。兩步優(yōu)化法可在算力減小35%的情況下獲得同樣的精度。

Lidar Mapping

該階段與LOAM的一致,主要不同處在于地圖的存儲(chǔ)方式:LOAM存儲(chǔ)單個(gè)點(diǎn)云地圖,本方法則存儲(chǔ)單個(gè)的特征集合。同時(shí)改方法還可在回環(huán)后使用Pose Graph以糾正漂移。

緊耦合IMU的激光慣性里程計(jì)–LIO SAM (Tixiao Shan, 2020,MIT)

LOAM的局限:難以回環(huán),難以融合其他傳感器,特征豐富區(qū)域時(shí)難以在線優(yōu)化,大范圍場(chǎng)景中會(huì)有漂移。為此提出一種采用因子圖+滑窗+緊耦合lidar融合IMU的方法,該融合思路與VINS 和相似。
整個(gè)因子圖中包含四種因子約束:lidar odometry、IMU預(yù)積分、GPS和回環(huán)約束。

IMU預(yù)積分約束

該約束和VINS中的一樣,具體可參考On-Manifold Preintegration for Real-Time Visual-Inertial Odometry 和 VINS

雷達(dá)里程計(jì)約束

采用關(guān)鍵幀思想,每隔一段距離或角度則選擇一個(gè)關(guān)鍵幀。在關(guān)鍵幀中提取平面和邊緣線的點(diǎn)特征,歷史最新的n幀合成sub-keyframes,將其中的特征變換到世界系下形成local voxel map。 特征的匹配采用LOAM的緊鄰匹配方法,將幀經(jīng)過(guò)變換與其之前的local voxel map進(jìn)行匹配,該幀的初始位姿由IMU積分得到

GPS因子和回環(huán)因子

GPS因子可以提供一個(gè)全局絕對(duì)約束,可減少漂移, 回環(huán)因子則與視覺(jué)中的回環(huán)基本一樣, 實(shí)驗(yàn)表明回環(huán)可以極大地改進(jìn)高度方向的估計(jì)漂移問(wèn)題。

LVI-SAM: 在LIO-SAM的基礎(chǔ)上融合視覺(jué)(Tixiao Shan, 2021,MIT)

該方法是LIS與VIS的集成,且兩者之間又互相促進(jìn),其中VIS為L(zhǎng)IS提供初始位姿估計(jì),支持后者的匹配,LIS則為VIS提供更好的初始化和特征深度值,利用VIS做回環(huán)檢測(cè),利用LIS進(jìn)行之后的回環(huán)校驗(yàn)。這兩個(gè)系統(tǒng)只要有一個(gè)正常,整個(gè)系統(tǒng)就可以正常運(yùn)行,展示了很好的系統(tǒng)魯棒性。

VIS系統(tǒng)借鑒使用了VINS-MONO,但利用了Lidar數(shù)據(jù)輔助初始化,并給特征值賦予深度值。
LIS系統(tǒng)則利用LIO-SAM。
簡(jiǎn)言之,LVI-SAM = VINS-Mono + LIO-SAM + 視覺(jué)與激光之間的輔助。

LIC-FUSION: 基于MSCKF框架的雷達(dá)-慣性-視覺(jué)融合 (左星星, 2019, 浙大)

主要貢獻(xiàn):提出一種在MSCKF框架上的雷達(dá)-慣性-視覺(jué)里程計(jì),同時(shí)具有傳感器外參標(biāo)定功能。熟悉MSCKF的就懂,下面會(huì)涉及一大堆的數(shù)學(xué)推倒。

系統(tǒng)介紹

A,系統(tǒng)狀態(tài)量


系統(tǒng)狀態(tài)量包括IMU系的位姿、速度和bias;相機(jī)、激光雷達(dá)的外參;相機(jī)、雷達(dá)的位姿。

B,IMU遞推(運(yùn)動(dòng)學(xué))

該部分是常用的IMU運(yùn)動(dòng)學(xué)

C,狀態(tài)增廣
每當(dāng)收到新的圖像或者雷達(dá)數(shù)據(jù),IMU就會(huì)根據(jù)運(yùn)動(dòng)學(xué)對(duì)系統(tǒng)狀態(tài)進(jìn)行推算,該過(guò)程既是EKF中的狀態(tài)預(yù)測(cè),獲得新時(shí)刻下的狀態(tài)及其協(xié)方差矩陣。

D, 測(cè)量模型

  • 雷達(dá)特征測(cè)量
    參考LOAM的思路,在雷達(dá)幀上提取線和面上的點(diǎn)特征,采用最近了匹配的方式實(shí)現(xiàn)特征跟蹤,可得到線上的點(diǎn)特征殘差(點(diǎn)-線距離)為:

    上述殘差在推算位姿處線性化:

    為了進(jìn)行狀態(tài)更新, 需要知道上述殘差的協(xié)方差CrC_rCr?:

    該協(xié)方差矩陣取決于傳感器測(cè)量噪聲。對(duì)于面上的點(diǎn)特征,可采用相同的流程處理。

  • 視覺(jué)特征測(cè)量
    與MSCKF的一致, 提取FAST交點(diǎn), 光流跟蹤, 殘差為重投影誤差, 采用零空間投影,只估計(jì)sliding window內(nèi)的位姿,不估計(jì)特征點(diǎn)位置。

E, 測(cè)量壓縮
殘差在新位姿處線性化后的方程可提煉為

為降低計(jì)算量,對(duì)線性化矩陣HXH_XHX?進(jìn)行QR分解:


有了上述協(xié)方差矩陣、預(yù)測(cè)位姿和協(xié)方差和線性化后的殘差等,即可采用標(biāo)準(zhǔn)的EKF流程更新得到新的狀態(tài)及協(xié)方差。

LIC-FUSION2.0:在LIC-FUSION的基礎(chǔ)上添加滑窗和平面跟蹤算法(左星星,IROS2020,浙大/ETH)

參考師兄大佬的論文導(dǎo)讀
主要內(nèi)容是在MSCKF和OpenVINS框架中加入激光測(cè)量信息,借鑒了視覺(jué)SLAM的pipeline,提出了一種新的激光-慣性-視覺(jué)里程計(jì):LIC-Fusion2。它的前身是LIC-Fusion,在此基礎(chǔ)上加入了如下特性:

  • 將激光平面特征的跟蹤從相鄰兩幀擴(kuò)展到滑動(dòng)窗口中的多幀中,并提出一種先進(jìn)的用于改進(jìn)平面跟蹤的外點(diǎn)去除方法;
  • 在狀態(tài)變量中加入激光平面特征。同時(shí)估計(jì)滑窗中的傳感器位姿,視覺(jué)特征點(diǎn)和激光平面。

該方法采用LOAM的方法提取平面點(diǎn),并用平面點(diǎn)擬合得到平面,該版本并沒(méi)用到LOAM中的邊點(diǎn)特征,但在future work中提到會(huì)研究基于邊緣特征的跟蹤。

LIMO:激光單目視覺(jué)里程計(jì)(Johannes Graeter,Karlsruhe Institute of Technology,IROS2018)

詳情的論文導(dǎo)讀可以參考師兄的博客【論文閱讀41】LIMO: LiDAR-Monocular Visual Odometry

本方法是一個(gè)典型的激光輔助視覺(jué)的SLAM方法,主要貢獻(xiàn)思想是提出了一種基于LiDAR點(diǎn)云的視覺(jué)特征點(diǎn)深度估計(jì)方法,如下流程所示,該方法被用于后續(xù)的多種視覺(jué)-雷達(dá)融合方案所借鑒。同時(shí)針對(duì)關(guān)鍵幀選擇,特征點(diǎn)選擇等工程優(yōu)化方面提出許多策略。思路簡(jiǎn)單,但取得的效果很好。
從雷達(dá)數(shù)據(jù)中獲取特征點(diǎn)深度距離的方法:
1)首先尋找該特征點(diǎn)周圍的矩形框內(nèi)的激光點(diǎn)。
2)然后對(duì)這些激光點(diǎn)按照深度進(jìn)行劃分。
3)尋找最靠近該特征點(diǎn)的深度區(qū)間的點(diǎn)云,擬合平面。
4)我們認(rèn)為該特征點(diǎn)位于該平面上,根據(jù)光心和特征點(diǎn)的連線與平面的交點(diǎn)記為該特征點(diǎn)的深度。
5)檢測(cè)估計(jì)深度的準(zhǔn)確性:光心和特征點(diǎn)連線與平面的夾角必須小于某個(gè)閾值;拒絕深度高于30m的特征點(diǎn)以防外點(diǎn)。

PL-LVO:基于點(diǎn)線特征的激光視覺(jué)里程計(jì)(Shi-Sheng Huang,IROS2020,清華)

利用點(diǎn)線特征的激光雷達(dá)-視覺(jué)里程計(jì),詳細(xì)論文解讀可參考https://zhuanlan.zhihu.com/p/153264331

該方法是一個(gè)典型的激光輔助視覺(jué)的里程計(jì)方案,從視覺(jué)圖像中提取點(diǎn)線特征,而后從激光數(shù)據(jù)中獲得點(diǎn)線的深度距離信息,用于恢復(fù)尺度和執(zhí)行后續(xù)的ICP位姿估計(jì)。

R2LIVE:激光-視覺(jué)-IMU緊耦合的狀態(tài)估計(jì)器(lin jiarong, 港大, 2021)

主要貢獻(xiàn):

  • 我們以緊耦合的方式融合了激光雷達(dá)、慣導(dǎo)、視覺(jué)的數(shù)據(jù),實(shí)驗(yàn)證明我們的方法可以魯邦處理包括劇烈運(yùn)動(dòng)、傳感器退化、甚至是有很多移動(dòng)物體的隧道場(chǎng)景,包括激光雷達(dá)只有很小FoV的場(chǎng)景。
  • 我們提出的框架包括一個(gè)高頻運(yùn)行的基于濾波方法的里程計(jì)模塊,和一個(gè)低頻運(yùn)行的基于因子圖的優(yōu)化模塊。里程計(jì)模塊以一個(gè)kalman濾波器迭代融合雷達(dá)、慣導(dǎo)、視覺(jué)傳感器,取得了實(shí)時(shí)的狀態(tài)估計(jì)。因子圖優(yōu)化模塊進(jìn)一步優(yōu)化滑窗內(nèi)的各傳感器位姿和視覺(jué)地圖點(diǎn)位置。

流程圖:

該方法由一個(gè)基于誤差的迭代卡爾曼濾波器和一個(gè)基于因子圖的圖優(yōu)化模塊組成。

迭代卡爾曼濾波器采用標(biāo)準(zhǔn)的卡爾曼流程,IMU作為預(yù)測(cè),激光雷達(dá)或者視覺(jué)作為觀測(cè)。滑窗優(yōu)化則借鑒了VINS-Mono的方法,該因子圖如下圖所示,其中雷達(dá)幀位姿和和激光雷達(dá)特征在滑窗中保持不變。

R3LIVE:雷達(dá)慣性和視覺(jué)慣性里程計(jì)的融合(lin jiarong, 港大, 2022)

該方法包含兩個(gè)子系統(tǒng):激光雷達(dá)-慣性里程計(jì) (LIO) 和視覺(jué)-慣性里程計(jì) (VIO)。其中LIO (FAST-LIO) 利用 LiDAR和慣性傳感器的測(cè)量數(shù)據(jù)構(gòu)建全局地圖幾何結(jié)構(gòu)(3D 點(diǎn)云位置);VIO 利用視覺(jué)-慣性傳感器的數(shù)據(jù)來(lái)渲染地圖紋理(3D 點(diǎn)云顏色),同時(shí)VIO 還通過(guò)最小化幀到地圖的光度誤差來(lái)直接、有效地融合視覺(jué)數(shù)據(jù)。
主要貢獻(xiàn):

  • 提出了一個(gè)融合框架,包含定位建圖和上色,框架里包含一個(gè)LIO模塊和一個(gè)VIO模塊,整個(gè)系統(tǒng)可以實(shí)時(shí)的重建密集3D彩色環(huán)境。
  • 基于彩色RGB點(diǎn)云提出了一個(gè)新的VIO系統(tǒng),通過(guò)最小化三維地圖點(diǎn)顏色和該三維點(diǎn)在當(dāng)前圖像幀中的顏色的光度誤差,避免了提取突出的視覺(jué)特征點(diǎn)的需求,提升了運(yùn)行速度,并且使得這個(gè)VIO對(duì)于無(wú)紋理環(huán)境更加魯棒。
    從系統(tǒng)處理流程來(lái)看,該方案是一個(gè)松耦合融合激光雷達(dá)和視覺(jué)的方法。

SVIL-SLAM:雙目視覺(jué)慣性雷達(dá)SLAM(Weizhao Shao, CMU,IROS2019)

詳細(xì)論文解讀可參考:【論文閱讀16】Stereo Visual Inertial LiDAR SLAM

雙目視覺(jué)里程計(jì)采用的是,采用光流跟蹤、滑窗和邊緣化思想,類似雙目VINS。

雷達(dá)建圖部分有借鑒LOAM的思路,通過(guò)最小化點(diǎn)-線和點(diǎn)-面特征來(lái)進(jìn)行基于雷達(dá)的定位建圖,使用高頻的VIO位姿提供初始位姿進(jìn)行幀圖匹配和點(diǎn)云去畸變。同時(shí),雷達(dá)數(shù)據(jù)被用于回環(huán)時(shí)提供ICP匹配來(lái)提高回環(huán)檢測(cè)的準(zhǔn)確率。

TVL-SLAM:緊耦合視覺(jué)-雷達(dá)SLAM

不同于之前的視覺(jué)雷達(dá)slam,將視覺(jué)的結(jié)果作為雷達(dá)的初始值,或者雷達(dá)給視覺(jué)提供深度測(cè)量值,本方法采用BA的方法在后端同時(shí)優(yōu)化視覺(jué)殘差和雷達(dá)殘差。為了實(shí)現(xiàn)大規(guī)模的BA優(yōu)化,本方法借鑒使用ORB_SLAM2和LOAM,關(guān)注后端準(zhǔn)確而有效的雷達(dá)殘差壓縮。本方法主要貢獻(xiàn)如下:

  • 視覺(jué)和雷達(dá)測(cè)量都被用于運(yùn)動(dòng)估計(jì),利用視覺(jué)和雷達(dá)運(yùn)動(dòng)的交叉校驗(yàn)來(lái)去除外點(diǎn),克服視覺(jué)或者雷達(dá)退化的情況,在但傳感器退化的情況下獲得了相較獨(dú)立視覺(jué)或者雷達(dá)方法更高的精度。
  • 視覺(jué)和雷達(dá)的回環(huán)檢測(cè)在閉環(huán)階段被聯(lián)合使用以確保高精度。為了提升計(jì)算效率,我們提出通用雷達(dá)因子(GLF)以將多雷達(dá)殘差壓縮成六維殘差;
  • 視覺(jué)-雷達(dá)融合框架被拓展成具有標(biāo)定功能的SLAM,以緩解不準(zhǔn)確的外參帶來(lái)的不利影響;
  • 在KITTI上取得非常好的效果。

融合Lidar后的改進(jìn):

  • 視覺(jué)位姿跟蹤后,計(jì)算雷達(dá)的scan-map注冊(cè),并通過(guò)視覺(jué)-雷達(dá)緊耦合來(lái)進(jìn)一步優(yōu)化位姿;
  • 在局部和全局BA時(shí)加入額外的雷達(dá)殘差和雷達(dá)子地圖原點(diǎn)位姿
  • 在視覺(jué)回環(huán)檢測(cè)之外新增額外的基于雷達(dá)的回環(huán)檢測(cè)模塊;
  • 為了更好地評(píng)估SLAM精度,SLAM流程被修改成單線程和阻塞式;

激光與視覺(jué)之間的輔助

  • 激光給視覺(jué)提供特征深度,如LIMO,PL-LVO
  • 視覺(jué)提供高頻位姿初值和輔助激光去畸變,如VLOAM,SVIL-SLAM
  • 因子圖中兩種特征獨(dú)立共存,提高算法魯棒性,如LVI-SAM,R3LIVE,TVL-SLAM,R2LIVE,LIC-FUSION
  • 利用視覺(jué)-激光對(duì)場(chǎng)景進(jìn)行重建,如R3LIVE
  • 視覺(jué)利用3D激光地圖進(jìn)行定位, 如Stereo Camera Localization in 3D LiDAR Maps
  • 視覺(jué)-激光聯(lián)合閉環(huán)檢測(cè):LVI-SAM,SVIL-SLAM
  • 特征層次的融合: 暫無(wú),也可能成為研究方向點(diǎn)

融合方法

EKF:R3LIVE, LVIO, LIC-FUSION
因子圖優(yōu)化:TVL-SLAM, LVI-SAM
EKF+因子圖優(yōu)化:R2LIVE

總結(jié)

以上是生活随笔為你收集整理的激光SLAM论文简单导读--LOAM、VLOAM、LeGO-LOAM、LIO-SAM、LVI-SAM、LIMO、LIC-FUSION、TVL-SLAM、R2LIVE、R3LIVE的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。