日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人文社科 > 生活经验 >内容正文

生活经验

segMatch:基于3D点云分割的回环检测

發(fā)布時(shí)間:2023/11/27 生活经验 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 segMatch:基于3D点云分割的回环检测 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

該論文的地址是:https://arxiv.org/pdf/1609.07720.pdf

segmatch是一個(gè)提供車輛的回環(huán)檢測(cè)的技術(shù),使用提取和匹配分割的三維激光點(diǎn)云技術(shù)。分割的例子可以在下面的圖片中看到。

該技術(shù)是基于在車輛附近提取片段(例如車輛、樹木和建筑物的部分),并將這些片段與從目標(biāo)地圖中提取的片段相匹配。分段匹配可以直接轉(zhuǎn)化為精確的定位信息,從而實(shí)現(xiàn)精確的三維地圖構(gòu)造和定位。在先前記錄的部分(白色)和最近觀察到的部分(彩色)之間,匹配的段的實(shí)例用綠色線顯示在下面的圖像中。

該方法依賴于分割對(duì)象但不一定限于語(yǔ)義對(duì)象,因?yàn)檫@允許更一般的表示分割物,并在更廣泛的不同環(huán)境中啟用功能。

對(duì)三維點(diǎn)云數(shù)據(jù)進(jìn)行回環(huán)檢測(cè)一直都是一項(xiàng)挑戰(zhàn),但是已經(jīng)有方案通過使用基于圖像的方法解決回環(huán)檢測(cè)的問題,基于圖像的方法一般是根據(jù)圖像的局部特征或者全局特征,圖像中環(huán)境的變化會(huì)使得局部特征點(diǎn)會(huì)收到模糊性和魯棒性的干擾,而基于全局特征點(diǎn)的方法一般的方法根據(jù)相機(jī)的視角(視點(diǎn)),該論文提出了一種可靠的閉環(huán)檢測(cè)算法——SegMatch,是基于3D點(diǎn)云分割匹配的方法。Segment在局部描述和全局描述之間提供了很好的折衷方案,不僅融合了它們的優(yōu)點(diǎn),同時(shí)減少了各自的缺點(diǎn)。Segmatch方法不依賴完美分割(perfect segmentation)的假設(shè),或者要求環(huán)境中必須存在的物體對(duì)象,它可以在大規(guī)模、非結(jié)構(gòu)化環(huán)境下可靠良好的運(yùn)行。

文章中結(jié)果表明,Segmatch可以在里程計(jì)數(shù)據(jù)集的最大序列頻率為1Hz實(shí)現(xiàn)精確定位。并且,我們還展示了如何在在線運(yùn)行過程中實(shí)現(xiàn)實(shí)時(shí)地檢測(cè)和閉環(huán)檢測(cè)。并且代碼都是開源了:https://github.com/ethz-asl/segmatch**(編譯源碼可能會(huì)遇到各種問題,有編譯過的,遇到問題如何解決的還望大家一起交流分享一下)**

在SLAM領(lǐng)域回環(huán)檢測(cè)是一個(gè)重要的挑戰(zhàn),但是由于全局位姿信息的狀態(tài)估計(jì)的漂移是不可避免的,所以對(duì)于機(jī)器人來說可靠的回環(huán)檢測(cè)是十分重要的,當(dāng)然前人也提出了很多典型的基于圖像的閉環(huán)檢測(cè)的方法,但是當(dāng)環(huán)境發(fā)生強(qiáng)烈的照明變化,或者由于傳感器的視點(diǎn)發(fā)生巨大的變化時(shí),這種基于圖像的回環(huán)檢測(cè)的方法就顯得不那么可靠了,基于激光雷達(dá)定位的方法,不受照明度的影響,并且雷達(dá)能夠獲取一定分辨率的幾何信息,不會(huì)像視覺系統(tǒng)受視點(diǎn)的影響,這篇論文就是就是根據(jù)3D測(cè)距雷達(dá)傳感器在室外環(huán)境中實(shí)現(xiàn)良好的穩(wěn)定的定位。

對(duì)于3D點(diǎn)云數(shù)據(jù)的回環(huán)檢測(cè),當(dāng)前的方案主要是依據(jù)關(guān)鍵點(diǎn)的檢測(cè)以及匹配的方法

圖1 此圖是一個(gè)回環(huán)檢測(cè)的框架圖,參考點(diǎn)云在下面為白色部分,局部點(diǎn)云在對(duì)應(yīng)的上方,不同的顏色代表著分割的結(jié)果,綠色的線代表著分割結(jié)果的匹配。

對(duì)于理想情況下的回環(huán)一般滿足兩個(gè)假設(shè):第一是能夠應(yīng)用分割技術(shù)將物體分割出來,第二是環(huán)境中必須有物體對(duì)象,當(dāng)環(huán)境中或者分割的條件不能滿足這兩個(gè)假設(shè)時(shí),就可以應(yīng)用本文提出的Segment方法,該方法是利用整體點(diǎn)云中的部分或者整體的形狀而不是使用關(guān)鍵特征點(diǎn)的方法,比如環(huán)境中的窗口,弓形等結(jié)構(gòu),該Segment 系統(tǒng)是一種模塊化設(shè)計(jì)。它首先第一步是從獲得的3D點(diǎn)云中提取并描述分割物,將它們匹配用于已經(jīng)走過的地方和使用幾何驗(yàn)證對(duì)比的方法選出回環(huán)檢測(cè)的候選點(diǎn)云。這種基于分割的技術(shù)的優(yōu)點(diǎn)是將點(diǎn)云壓縮成一組清晰的用于閉環(huán)檢測(cè)的判別元素。實(shí)驗(yàn)表明這不僅減少了匹配所需的時(shí)間,也減少了錯(cuò)誤匹配的可能性。

這是第一篇文章提出了在三維激光數(shù)據(jù)的基礎(chǔ)上分割物體并執(zhí)行閉環(huán)檢測(cè)和定位的實(shí)時(shí)的算法。該文章的主要貢獻(xiàn)有:Segmatch,是一種基于分割算法的三維點(diǎn)云進(jìn)行位置識(shí)別的方法。開源代碼實(shí)現(xiàn)實(shí)時(shí)的閉環(huán)檢測(cè),算法的性能在實(shí)際應(yīng)用中得已檢測(cè)。
目前主要三個(gè)趨勢(shì):(1)基于局部特征的方法;(2)基于全局的描述(3)以平面或物體為基礎(chǔ)的

在論文中,描述了在三維點(diǎn)云中的位置識(shí)別方法。所提出的系統(tǒng)框架的具體如圖2 所示,由四個(gè)不同的模塊組成:點(diǎn)云分割、特征提取、分段匹配和幾何驗(yàn)證。模塊化一直是設(shè)計(jì)階段的一個(gè)驅(qū)動(dòng)因素。

該圖為SegMatch的框架結(jié)構(gòu)圖,其中Target Map可以是從本地磁盤中加載也可以是在線讀取用于實(shí)現(xiàn)閉環(huán)檢測(cè)

(1)Segmentation
SegMatch的第一步是根據(jù)3D點(diǎn)云進(jìn)行不同的元素分割用于匹配。我們首先將輸入的點(diǎn)云P進(jìn)行體素網(wǎng)格化,體素化為了篩選出體素內(nèi)沒有占有太多的噪聲。過濾后的點(diǎn)云被分割成一組點(diǎn)簇Ci,此分割的方法要求將點(diǎn)云數(shù)據(jù)中的地面去除,這可以通過基于垂直均值和方差的鄰近體素聚類來實(shí)現(xiàn)。在論文[ 22 ]有所提及。一旦去除地面平面的數(shù)據(jù),Euclidean聚類用于區(qū)域分割。對(duì)于每個(gè)集群Ci,質(zhì)心ci被計(jì)算為其所有點(diǎn)的平均值。

(2) Feature extraction
根據(jù)第一步的分割結(jié)果 ,對(duì)于每一個(gè)分割結(jié)果進(jìn)行特征提取,該特征提取的方法是壓縮原始點(diǎn)云并為該點(diǎn)云生成對(duì)象簽名,該簽名適用于識(shí)別和分類,由于對(duì)3D點(diǎn)云數(shù)據(jù)來說沒有十分清晰的黃金標(biāo)準(zhǔn)描述子,所以論文中使用了幾個(gè)不同的描述子對(duì)聚類結(jié)果Ci進(jìn)行描述,計(jì)算出描述子的特征向量Fi= f1 f2 …fm,這些特征向量的表示可以擴(kuò)展到包含很多的描述子,比如兩個(gè)描述子的表示方式 :
f1 表示基于特征值:在這個(gè)描述子中,計(jì)算出分割結(jié)果點(diǎn)云的特征值,結(jié)合一個(gè)1*7 維度的特征向量,該七個(gè)數(shù)據(jù)分別是linearity,planarity, scattering, omnivariance, anisotropy, eigenentropy 和 change of curvature measures
f2 表示形狀直方圖:此特征是一個(gè)1*640的維度組成的10個(gè)直方圖,是形狀函數(shù)D2,D3和A3的形狀的解碼表示,至于D2,D3 A3分別代表什么,在文章【6】
有更加具體的描述,D2形狀函數(shù)是隨機(jī)選擇的點(diǎn)對(duì)之間的距離的直方圖 D3是隨機(jī)選擇點(diǎn)對(duì)組成的三角形的面積 A3表示由D3隨機(jī)組成的三角形的兩兩線段之間的角度函數(shù)
(3)Segment matching

使用第二步驟中獲得的特性點(diǎn),一般情況下,我們希望識(shí)別源點(diǎn)云和目標(biāo)點(diǎn)云之間的匹配關(guān)系。對(duì)于這一步,論文使用學(xué)習(xí) 的方法,因?yàn)槭褂脗鹘y(tǒng)的方法通常很難選擇合適的距離度量和閾值,特別是當(dāng)涉及多個(gè)特征類型時(shí)。因此,分類器用于決定兩個(gè)部分的匹配的點(diǎn)云是否代表相同的對(duì)象或?qū)ο笾心骋徊糠帧榱吮3中?#xff0c;首先通過在特征空間中執(zhí)行一個(gè)KD樹搜索來檢索候選匹配,然后再將其送入分類器。具體的說,論文中使用隨機(jī)森林的分類和定時(shí)性能。這種分類器的思想是構(gòu)造大量不同的決策樹,并讓它們?yōu)楂@勝類投票。在學(xué)習(xí)階段,每一棵樹都是利用訓(xùn)練數(shù)據(jù)集的特征及隨機(jī)子集自舉子集訓(xùn)練。隨機(jī)森林提供了類似于AdaBoost算法的分類性能,但對(duì)輸出標(biāo)簽中的噪聲不敏感,因?yàn)樗_實(shí)存在。隨機(jī)森林還可以提供有關(guān)特征對(duì)于分類任務(wù)的相對(duì)重要性的信息。
對(duì)于隨機(jī)森林分類器,用以確定Ci與Cj集群點(diǎn)云代表著相同的物體,計(jì)算的特征值的特征向量之間的絕對(duì)差:?F =| fi - fj |。特征向量Fi和FJ放入的總特征值為1x21特征分類。這十個(gè)直方圖分別是對(duì)形狀特征的集合,直方圖相交計(jì)算得到一個(gè)尺寸1*10的特征。考慮到這些特性,隨機(jī)森林分類器分配一個(gè)分類分?jǐn)?shù)w作為匹配。應(yīng)用W上的閾值來構(gòu)建傳遞給下一個(gè)模塊的候選匹配的最終列表。

(4)Geometric verification

根據(jù)第(3)步得到的候選匹配被輸送到幾何驗(yàn)證模塊。采用隨機(jī)抽樣一致性測(cè)試(RANSAC)[ 25 ]。使用分割物體的質(zhì)心計(jì)算兩物體之間的轉(zhuǎn)換矩陣。幾何一致的分割的簇點(diǎn)云最終被認(rèn)為是同一物體是在其上的最小分割的基礎(chǔ)上,得到的結(jié)果是6自由度變換和一系列的匹配的分割點(diǎn)云

增量分割

前面的部分展示了使用分割的技術(shù)匹配3D點(diǎn)云的方法。為了執(zhí)行閉環(huán)檢測(cè),需要在線建立目標(biāo)點(diǎn)云。對(duì)于在全局引用中給定的每個(gè)傳入點(diǎn)云框架,這個(gè)模塊首先提取局部點(diǎn)云。定義半徑r,也就是當(dāng)前機(jī)器人位置中心的圓柱鄰域。分割和特征提取只執(zhí)行一次,生成的源分割點(diǎn)云用于匹配和構(gòu)建目標(biāo)地圖。所以在目標(biāo)地圖中添加源分割點(diǎn)云時(shí),以下兩個(gè)特殊情況需要處理:

分割的點(diǎn)云不完整的情況:將柱面濾波器應(yīng)用于點(diǎn)云地圖時(shí)必然導(dǎo)致物體對(duì)象的切割發(fā)生,從而導(dǎo)致點(diǎn)云“不完整分割”,從而干擾了目標(biāo)地圖中的完整視圖。因此,這些“不完整的部分”點(diǎn)云被檢測(cè)和丟棄,以便使得地圖盡可能包含盡可能多的“完整段視圖”。這可以通過一個(gè)較小的半徑 r= R?Bd的源點(diǎn)云地圖的濾波來實(shí)現(xiàn),其中B是外點(diǎn)區(qū)域的厚度。在這個(gè)區(qū)域內(nèi)有點(diǎn)云很可能代表不完整的分割物,因此可以安全地移除。

重復(fù)的分割點(diǎn)云:添加到目標(biāo)地圖中的分割物體也可能是之前分割的點(diǎn)云,也就是相同的對(duì)象部分,但在不同的時(shí)間分段。作為里程計(jì)是局部準(zhǔn)確,這些重復(fù)的點(diǎn)云可以通過比較最近的距離來有效地檢測(cè)分割物體的質(zhì)心。希望保留最新的分割點(diǎn)云,并給出我們可以丟棄的不完整的分割部分,選擇刪除這些副本中最舊的分割部分。進(jìn)一步的工作包括合并這些“重復(fù)片段”技術(shù)。

在一此閉環(huán)檢測(cè)過程中,機(jī)器人的軌跡將會(huì)被重新估計(jì),并且目標(biāo)分割點(diǎn)云的位置將會(huì)被刷新,知道分割點(diǎn)云相對(duì)機(jī)器人軌跡的位置,在成功檢測(cè)的條件下,目標(biāo)地圖中的分割點(diǎn)云將會(huì)被正確對(duì)其,也能夠正確的濾波去除那些上文中提到的重復(fù)點(diǎn)云,所以濾波的作用就是從最近的分割執(zhí)行到以前的分割點(diǎn)云。濾除掉重復(fù)的部分。

對(duì)于提取源點(diǎn)云的半徑圓柱鄰域的R設(shè)置為60米。體素網(wǎng)格葉的大小設(shè)置為0.1米,最小的兩個(gè)體素內(nèi)的點(diǎn)云將視為占用點(diǎn)。對(duì)于分割采用最大歐幾里德距離的方法,兩個(gè)被占據(jù)的體素使它們被認(rèn)為屬于將同一群集的閥值設(shè)置為0.2米。而且選擇考慮僅包含最少有100個(gè)點(diǎn)的分割和最多15000點(diǎn)的分割物體。

Training and testing setup

執(zhí)行該算法的過程來生成訓(xùn)練和測(cè)試數(shù)據(jù)集。在第一部分的給定序列中,通過提取和描述分割物來生成和處理目標(biāo)地圖。當(dāng)車輛測(cè)量到環(huán)境中相同的一部分時(shí),數(shù)據(jù)集用于存儲(chǔ)對(duì)應(yīng)不同分割物的源和目標(biāo)點(diǎn)云。對(duì)于局部點(diǎn)云中的每個(gè)部分,我們?cè)谔卣骺臻g中執(zhí)行KNN檢索,并在目標(biāo)地圖中識(shí)別最近的200個(gè)鄰居點(diǎn)。這些候選被保存為對(duì)應(yīng)段的真實(shí)匹配和不同段的假匹配。使用此程序?qū)υ摂?shù)據(jù)集的06個(gè)序列,我們產(chǎn)生2000真匹配,和800000假匹配。訓(xùn)練的隨機(jī)森林時(shí),我們采用1:50的陽(yáng)性和陰性樣品,結(jié)果有102000個(gè)樣本訓(xùn)練集

Segment matching performance




第一個(gè)實(shí)驗(yàn)的目的是評(píng)估三種分割匹配技術(shù)的性能,第一種方案是命名為L(zhǎng)2表示一個(gè)歐幾里得閥值,也就是兩分割點(diǎn)云的特征向量之間的距離,第二種方案叫做RF-eigen 是基于隨機(jī)森林的方法主要依賴特征點(diǎn)的特征值,最后一種方法是RF_eigen+shapes 的方法,就是在第二種方案的基礎(chǔ)上增加了幾何信息,使用更多的特征就像上文提到的方法,每一種方案用于分類器中的總結(jié)如表所示

從00序列提取的數(shù)據(jù)中檢測(cè)出三種方法的工作特性曲線(ROC)曲線。與它們的L2范數(shù)對(duì)應(yīng)的相比,隨機(jī)森林分類器提供了性能上的改進(jìn)。相應(yīng)的的rf_eigen +形狀正確識(shí)別的例子是圖4所示。

定位性能
這一部分對(duì)segmatch算法在目標(biāo)地圖中的定位的性能進(jìn)行評(píng)估。數(shù)據(jù)集在序列00的部分是用于創(chuàng)建目標(biāo)地圖,定位是發(fā)生在再次經(jīng)過該序列的數(shù)據(jù)集時(shí)。基于前文所述的三種比較的方法,說明以關(guān)鍵點(diǎn)為基礎(chǔ)的回環(huán)檢測(cè)技術(shù)。
1)關(guān)鍵點(diǎn):關(guān)鍵點(diǎn)為基線的定位方法,首先計(jì)算各點(diǎn)的法線的過濾之后的點(diǎn)云,使用的濾波半徑為0.3米。在這一章節(jié)使用到了PCL的庫(kù)函數(shù),關(guān)鍵點(diǎn)提取是在目標(biāo)和源點(diǎn)云均使用PCL庫(kù)的harris 3d關(guān)鍵點(diǎn)。這些關(guān)鍵點(diǎn)提取之后仍然進(jìn)行濾波保留最少要有0.5米的距離一個(gè)關(guān)鍵點(diǎn),確保同一地區(qū)沒有兩個(gè)太接近的描述子,從而減少幾何驗(yàn)證階段對(duì)于描述子的歧義性或者模糊性。每一個(gè)關(guān)鍵點(diǎn)是使用半徑為0.4米的快速點(diǎn)特征直方圖描述(fpfh)
。在進(jìn)行源點(diǎn)云進(jìn)行匹配是,尋找75個(gè)鄰域在目標(biāo)點(diǎn)云周圍的分割點(diǎn),并使用幾何驗(yàn)證算法來過濾這個(gè)關(guān)鍵點(diǎn)的匹配列表和輸出回環(huán)檢測(cè)。為了獲得我們能找到的最佳性能,需要我們決定最佳的參數(shù),
2)結(jié)果:為了顯示定位信息,我們對(duì)每個(gè)方案執(zhí)行90次運(yùn)行,并給出平均結(jié)果。每個(gè)局部點(diǎn)云之間的距離被記錄并以類似于[ 28 ]的方式進(jìn)行評(píng)估。并顯示在目標(biāo)地圖沒有成功定位的情況下行進(jìn)給定距離的概率。具體來說,這個(gè)度量值計(jì)算如下:

          圖4  是成功檢測(cè)到相應(yīng)節(jié)段的segmatch算法。頂部和底部的行分別顯示目標(biāo)和源點(diǎn)云的分割點(diǎn)云。

那么對(duì)于增量分割的算法,解釋如下

現(xiàn)在論文展示了基于分割的回環(huán)檢測(cè)算法可以在線使用,也可以結(jié)合估計(jì)姿態(tài)圖軌跡系統(tǒng)使用。在這個(gè)場(chǎng)景,如第四節(jié)所述,目標(biāo)地圖是可以在線構(gòu)建的,應(yīng)用這一策略方法針對(duì)數(shù)據(jù)集05數(shù)據(jù)集的結(jié)果,如圖6所示。這一序列中,全局地圖是添加Velodyne掃描之間約束使用迭代最近點(diǎn)(ICP)的方法創(chuàng)建的。在這個(gè)序列中,該實(shí)時(shí)算法非常成功地發(fā)現(xiàn)了12個(gè)真陽(yáng)性和假陽(yáng)性閉環(huán)檢測(cè)。一次回環(huán)檢測(cè),他們的類似的描述在posegraph優(yōu)化系統(tǒng)中比如論文[ 29 ]中就有詳細(xì)的介紹 。此優(yōu)化的結(jié)果用于更新目標(biāo)分割物位置并從中刪除重復(fù)分割物更新目標(biāo)地圖

基于對(duì)蘇黎世的Clausiusstrasse數(shù)據(jù)平滑約束區(qū)域增長(zhǎng)分割的閉環(huán)檢測(cè)的插圖

本文提出了segmatch,從基于段匹配的概念,三維激光數(shù)據(jù)檢測(cè)閉合環(huán)的算法。相比于一個(gè)關(guān)鍵點(diǎn)的方法,在段水平提供了幾個(gè)優(yōu)點(diǎn)而不做任何關(guān)于完美的分割或環(huán)境中存在的“物體”的假設(shè)。我們的模塊化方法首先從源點(diǎn)云中提取片段,然后將其描述和匹配到先前映射的目標(biāo)段。一個(gè)幾何驗(yàn)證步驟,最后把這些候選匹配到loopclosures。

該框架已在該數(shù)據(jù)詳盡的評(píng)估。我們首先分析了使用隨機(jī)森林分類器學(xué)習(xí)適當(dāng)?shù)木嚯x度量的特征匹配段的目的的影響。我們表明,該算法能夠準(zhǔn)確地定位在一個(gè)頻率高于1Hz的該數(shù)據(jù)集的最大的地圖。我們還演示了如何健壯地檢測(cè)在線方式的循環(huán),以及如何將這些饋送到姿態(tài)圖軌跡估計(jì)器。由于框架的模塊化方法,我們進(jìn)一步說明了它可以很容易地應(yīng)用到不同的場(chǎng)景,通過簡(jiǎn)單地改變算法的構(gòu)建塊。整個(gè)框架的代碼可在線獲取,為三維點(diǎn)云流提供實(shí)時(shí)分割和環(huán)路閉包檢測(cè)。
基于這種分段匹配技術(shù),我們預(yù)見了在系統(tǒng)中不僅僅是匹配和描述環(huán)境的多個(gè)映射使用段的可能的優(yōu)點(diǎn)。我們將采用有監(jiān)督的學(xué)習(xí)技術(shù),將這些基于段的映射解釋為結(jié)構(gòu)和對(duì)象語(yǔ)義類。

總結(jié)一下,這segmatch開發(fā)包提供了以下功能:
高效點(diǎn)云分割提供更為有信息的分割物
提供更為有效的點(diǎn)云描述子的提取
使用最近鄰搜索的方法有效對(duì)分割段點(diǎn)云進(jìn)行檢索
基于隨機(jī)森林分類器的魯棒的進(jìn)行分段點(diǎn)云匹配
結(jié)果:

三維點(diǎn)云的全局定位(達(dá)到閉環(huán)檢測(cè)的作用)
實(shí)時(shí)性能
構(gòu)建了基于激光雷達(dá)數(shù)據(jù)的地圖構(gòu)建和定位的ROS兼容代碼庫(kù)

分割點(diǎn)云:
首先,傳入的點(diǎn)云被聚類成一系列的分割物。實(shí)際上,這可以用多種不同的方式來完成。在當(dāng)前的實(shí)現(xiàn)中,分割首先通過去除地面平面,將像素網(wǎng)格應(yīng)用到點(diǎn)云,然后過濾掉噪聲。之后由歐幾里德聚類形成分割聚類點(diǎn)云。
分割聚類點(diǎn)云的描述:
一旦點(diǎn)云已被分割成一系類的點(diǎn)云,為每個(gè)分割聚類點(diǎn)云提取描述子。此特征提取步驟用于將原始數(shù)據(jù)壓縮成適合于識(shí)別和分類的緊湊描述符。在當(dāng)前論文的實(shí)現(xiàn)中,既提供基于特征值的特征,又提供形狀特征的集成。(那么關(guān)于基于特征值的特征以及基于形狀的特征的提取的論文分別是:
(1)SEMANTIC 3D SCENE INTERPRETATION: A FRAMEWORK COMBINING OPTIMAL NEIGHBORHOOD SIZE SELECTION WITH RELEVANT FEATURES
(2)Ensemble of Shape Functions for 3D Object Classification
分段匹配:
給定查詢的分段點(diǎn)云,接下來的目標(biāo)是識(shí)別以前生成地圖中分段點(diǎn)云的匹配的任務(wù)。這是通過首先在特征空間中使用KD樹搜索檢索相關(guān)分段點(diǎn)云,然后將每個(gè)檢索片段分類為匹配或不匹配。由于選擇合適的距離度量和閾值往往比較困難,因此對(duì)隨機(jī)森林進(jìn)行訓(xùn)練,并對(duì)其是否匹配進(jìn)行分類。一旦分段點(diǎn)云匹配通過分類器的確定,再利用分段點(diǎn)云質(zhì)心之間的對(duì)應(yīng)的關(guān)系的幾何一致性檢查驗(yàn)證匹配度。如果場(chǎng)景幾何一致,返回6自由度姿態(tài),在便在地圖提供的定位信息。
回環(huán)檢測(cè):
在這種情況下,現(xiàn)有的地圖是不提供的,segmatch也可以用來識(shí)別閉合環(huán)和正確估計(jì)的漂移。這可以在在線(實(shí)時(shí))或離線階段進(jìn)行。此外,因?yàn)閟egmatch執(zhí)行全局搜索,閉環(huán)檢測(cè)即使在大漂移的情況仍然是可能的。一個(gè)地圖從該05序列產(chǎn)生一個(gè)例子如下所示。估計(jì)的軌跡顯示在左邊,檢測(cè)到的閉合環(huán)用藍(lán)線表示;在關(guān)閉循環(huán)閉包后進(jìn)行圖形優(yōu)化的結(jié)果顯示在右邊。
下載數(shù)據(jù)集http://robotics.ethz.ch/segmatch/

rosbag首先會(huì)停止給程序一些時(shí)間從磁盤加載點(diǎn)云提取和描述部分。完成后,將從目標(biāo)點(diǎn)云中看到白色部分,如下圖所示。

一應(yīng)用步驟教程 https://github.com/ethz-asl/segmatch/wiki/Demonstrations

(個(gè)人理解,并且翻譯水平有限,如有理解上的錯(cuò)誤,歡迎指出,并期待你與我交流,聯(lián)系方式:dianyunpcl@163.com)

REFERENCES

[1] S. Thrun et al., “Robotic mapping: A survey,” Exploring artificial intelligence in the new millennium, vol. 1, pp. 1–35, 2002.

[2] S. Lowry, N. Sunderhauf, P. Newman, J. J. Leonard, D. Cox,P. Corke, and M. J. Milford, “Visual place recognition: A survey,” IEEE Trans. on Robotics, 2016.

[3] M. Bosse and R. Zlot, “Place recognition using keypoint voting in large 3D lidar datasets,” in IEEE Int. Conf. on Robotics and Automation, 2013.

[4] B. Alexe, T. Deselaers, and V. Ferrari, “What is an object?” in IEEE Conf. on Computer Vision and Pattern Recognition, 2010.

[5] P. Scovanner, S. Ali, and M. Shah, “A 3-dimensional sift descriptor and its application to action recognition,” in ACM Int. Conf. on Multimedia, 2007.

[6] W. Wohlkinger and M. Vincze, “Ensemble of shape functions for 3d object classification,” in IEEE Int. Conf. on Robotics and Biomimetics, 2011.

[7] R. B. Rusu, N. Blodow, and M. Beetz, “Fast point feature histograms (fpfh) for 3d registration,” in IEEE Int. Conf. on Robotics and Automation, 2009, pp. 3212–3217.

[8] Y. Zhuang, N. Jiang, H. Hu, and F. Yan, “3-d-laser-based scene measurement and place recognition for mobile robots in dynamic indoor environments,” IEEE Transactions on Instrumentation and Measurement, vol. 62, no. 2, pp. 438–450, 2013.

[9] B. Steder, G. Grisetti, and W. Burgard, “Robust place recognition for 3D range data based on point features,” in IEEE Int. Conf. on Robotics and Automation, 2010.

[10] B. Steder, M. Ruhnke, S. Grzonka, and W. Burgard, “Place recognition in 3d scans using a combination of bag of words and point feature based relative pose estimation,” in IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, 2011.

[11] A. Gawel, T. Cieslewski, R. Dubé, M. Bosse, R. Siegwart, and J. Nieto, “Structure-based Vision-Laser Matching,” in IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, Daejeon, 2016.

[12] J. Zhang and S. Singh, “Loam: Lidar odometry and mapping in real-time,” in Robotics: Science and Systems, 2014.

[13] T. Rohling, J. Mack, and D. Schulz, “A fast histogrambased similarity measure for detecting loop closures in 3-d lidar data,” in IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, 2015.

[14] K. Granstr?m, T. B. Sch?n, J. I. Nieto, and F. T. Ramos, “Learning to close loops from range data,” The Int. Journal of Robotics Research, vol. 30, no. 14, pp. 1728–1754, 2011.

[15] M. Magnusson, H. Andreasson, A. Nüchter, and A. J. Lilienthal, “Automatic appearance-based loop detection from threedimensional laser data using the normal distributions transform,” Journal of Field Robotics, vol. 26, no. 11-12, pp. 892–914, 2009.

[16] E. Fernandez-Moral, W. Mayol-Cuevas, V. Arevalo, and J. Gonzalez-Jimenez, “Fast place recognition with plane-based maps,” in IEEE Int. Conf. on Robotics and Automation, 2013.

[17] E. Fernández-Moral, P. Rives, V. Arévalo, and J. GonzálezJiménez, “Scene structure registration for localization and mapping,” Robotics and Autonomous Systems, vol. 75, pp.649–660, 2016.

[18] R. Finman, L. Paull, and J. J. Leonard, “Toward object-based place recognition in dense rgb-d maps,” in ICRA workshop on visual place recognition in changing environments, 2015.

[19] B. Douillard, A. Quadros, P. Morton, J. P. Underwood, M. De Deuge, S. Hugosson, M. Hallstr?m, and T. Bailey, “Scan segments matching for pairwise 3d alignment,” in IEEE Int. Conf. on Robotics and Automation, 2012.

[20] J. Nieto, T. Bailey, and E. Nebot, “Scan-slam: Combining ekfslam and scan correlation.” Springer, 2006, pp. 167–178.

[21] B. Douillard, J. Underwood, V. Vlaskine, A. Quadros, and S. Singh, “A pipeline for the segmentation and classification of 3d point clouds,” in Experimental Robotics. Springer, 2014, pp. 585–600

[22] B. Douillard, J. Underwood, N. Kuntz, V. Vlaskine, A. Quadros, P. Morton, and A. Frenkel, “On the segmentation of 3d lidar point clouds,” in IEEE Int. Conf. on Robotics and Automation, 2011.

[23] M. Weinmann, B. Jutzi, and C. Mallet, “Semantic 3d scene interpretation: a framework combining optimal neighborhood size selection with relevant features,” ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. 2, no. 3, p. 181, 2014.

[24] L. Breiman, “Random forests,” Machine Learning, vol. 45, no. 1, pp. 5–32, 2001. [25] M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography,” Communications of the ACM, vol. 24, no. 6, pp. 381–395, 1981.

[26] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving? the kitti vision benchmark suite,” in IEEE Conf. on Computer Vision and Pattern Recognition, 2012.

[27] R. B. Rusu and S. Cousins, “3D is here: Point Cloud Library (PCL),” in IEEE Int. Conf. on Robotics and Automation, 2011.

[28] C. Linegar, W. Churchill, and P. Newman, “Work smart, not hard: Recalling relevant experiences for vast-scale but timeconstrained localisation,” in IEEE Int. Conf. on Robotics and Automation, 2015.

[29] R. Dubé, H. Sommer, A. Gawel, M. Bosse, and R. Siegwart, “Non-uniform sampling strategies for continuous correction based trajectory estimation,” in IEEE Int. Conf. on Roboticsand Automation, 2016.

[30] T. Rabbani, F. Van Den Heuvel, and G. Vosselmann, “Segmentation of point clouds using smoothness constraint,” International Archives of Photogrammetry, Remote Sensing andSpatial Information Sciences, vol. 36, no. 5, pp. 248–253, 2006.

有問題請(qǐng)指出,同時(shí)歡迎大家關(guān)注微信公眾號(hào)
或者加入3D視覺微信群一起交流分享

總結(jié)

以上是生活随笔為你收集整理的segMatch:基于3D点云分割的回环检测的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。