日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

激光雷达目标检测(下)

發布時間:2023/12/31 目标检测 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 激光雷达目标检测(下) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

基于深度學習的算法

現在在激光雷達數據目標檢測中最常用的算法是基于深度學習的算法,其效果與傳統學習算法相比要好很多,其中很多算法都采用了與圖片目標檢測相似的算法框架。

早期的激光點云上的目標檢測和圖片上的目標檢測算法并不一樣,圖片數據上常見的HOG、LBP和ACF【10,11,12】等算法并沒有應用到點云數據中。

這是因為激光點云數據與圖片具有不同的特點,例如圖片中存在遮擋和近大遠小的問題而點云上則沒有這些問題,反過來圖片中也并不存在上節中討論的點云的很多特點。

從2014年開始隨著RCNN、Fast RCNN、Faster RCNN、YOLO和SSD【1,2,3,4,5,6,7】等圖片目標檢測算法的進步,研究者對于檢測算法的理解也在不斷深入。

研究者發現雖然點云數據與圖片數據有很多不一樣的特點,但是在鳥瞰圖中這兩種不同的數據在目標檢測的框架下具有相通之處,因此基于鳥瞰圖的激光點云的目標檢測算法幾乎都沿用了圖片目標檢測算法的思路。

2016年PointNet【8】提出了另外的一種算法框架,其提出了一種在三維空間中與點云順序無關的算子并結合CNN也在目標分割和識別上得到了很好的效果。

這個方法為三維點云中的目標檢測提供了新的思路,即有可能存在一種比基于鳥瞰圖算法通用的三維目標檢測方法。

如前文所述激光點云數據有一些無法克服的問題,其中最主要的就是稀疏性。提高雷達的線數是一個解決問題的途徑,但是現有高線數雷達的成本過高很難真正落地,并且高線數也無法從根本上解決遠距離的稀疏問題。

為了解決這個問題一些研究者提出了激光數據和圖片數據相融合的方法,這種方法尤其對小物體和遠處的物體有很好的效果。

激光點云中目標檢測的結果的穩定性也十分重要,傳統的檢測算法并不特別關注這個問題,其中一個原因是在后續的跟蹤和關聯算法中可以對檢測到的目標的大小、尺寸進行濾波,從而得到穩定的結果。

近幾年一些研究者嘗試將“穩定算法輸出”的任務交給深度神經網絡,嘗試根據連續的多幀數據對當前幀進行檢測,這種方法可以增加算法輸出結果的穩定性,減少后續跟蹤算法的復雜程度,提高整個系統的魯棒性。

接下來會介紹一些在基于單幀激光數據、圖片和激光融合以及基于連續多幀激光數據這三個方面具有代表性的算法。

1 基于單幀激光雷達數據的方法

Zhou提出的VoxelNet是一個在激光點云數據中利用圖片深度學習檢測框架的很好的例子【13】。其先將三維點云轉化成voxel結構,然后以鳥瞰圖的方式來處理這個結構。這里voxel結構是用相同尺寸的立方體劃分三維空間,這里每個立方體被稱為voxel即體素。舉一個空間劃分的例子,如果點云中的點在三維空間滿足

(x,y,z) ∈ [-100,100] x [-100,100] x [-1,3]

當設定voxel的尺寸為(1,1,1)時可以將空間劃分為2002004 = 160000個voxel。很多論文中稱這種結構的維度為2.5維,如果把每個格子都看成一個像素那么這是一種類似二維圖片的數據結構,而每個voxel的內部是三維空間結構。

圖1:VoxelNet的算法流程圖

VoxelNet有兩個主要的過程,第一個被稱為VFE(Voxel Feature Extraction)是voxel的特征提取過程,第二個是類似YOLO的目標檢測過程。在VEF過程中所有voxel共享同一組參數,這組參數描述了生成voxel的特征的方法。論文中VFE的過程由一系列CNN層組成如下圖。

圖2:VoxelNet算法中VFE部分的流程圖

VFE過程的結果是每個voxel都得到了長度相同的特征,將這些特征按照voxel的空間排列方式堆疊在一起形成了一個4維的特征圖,以上面的例子來說特征圖的尺寸為(200,200,4, l),這里l是voxel的特征長度。

在目標檢測過程中其首先將voxel特征通過三維卷積壓縮成3維的形式(200,200,l’),然后對得到的特征圖進行目標檢測。和二維圖片檢測相比VoxelNet不僅要給出物體中心的二維坐標和包圍盒的長寬,還需要給出物體中心在Z軸的位置、物體的高度和物體在XY平面上的朝向。

VoxelNet在實際使用中有兩個問題:首先在VFE過程中因為所有的voxel都共享同樣的參數和同樣的層,當voxel數量很大時在計算上會引入錯誤或效率問題,一些神經網絡的框架例如Caffe在bn和scale層的實現時沒有考慮到這點,需要使用者自己去做調整;其次三維卷積操作的復雜度太高使得這個算法很難在自動駕駛車輛上實際使用的硬件設備上滿足實時性要求。

Yang提出的PixorNet算法可以在一定程度上解決上述問題【14】,首先其沒有VFE的過程,而是用手工設計的0-1的布爾變量和像素的反射強度表示每一個voxel,即每個voxel由兩個數值表示。其次PixorNet從4維到2維做的簡單的線性映射,即按照某種固定順序將(200,200,4, l)整理成(200,200,4*l)的結構。

與VoxelNet相比PixorNet可以節約非常多的計算量,從而達到實時性的要求,但是因為其手工設計的特征過于簡單檢測效果不是特別好。

上述方法主要在鳥瞰圖上進行目標檢測,Qi提出了PointNet和PointNet++可以在三維空間中直接做分割和識別任務【8,9】。

PointNet首先為點云中每一個點計算特征(下圖中1024維),然后通過一個點云順序無關的操作(下圖max pool)將這些特征組合起來得到屬于全體點云的特征,這個特征可以直接用于識別任務。而將全局特征與每個點的特征組合到一起形成的新特征可以用于點云分割任務中。

圖3:PointNet的算法流程圖

PointNet在計算點的特征時共享一組參數,這一點和VoxelNet很類似因此也有與之相同的問題。另外PointNet主要提取了所有點云組成的集合的全局特征,而沒有提取描述點與點之間關系的特征。將PointNet的方法類比到二維圖片中,可以看出其與傳統卷積神經網絡的區別,即PointNet中沒有類似卷積的操作。

PointNet++主要解決的就是這個問題,其嘗試通過使用聚類的方法建立點與點之間的拓撲結構,并在不同粒度的聚類中心進行特征的學習。

圖4:PointNet++的算法流程圖

這種方法確實比PointNet在分割算法中有所提高,但是將其直接用于檢測算法卻不能得到較好的結果。主要原因是在PointNet的結構中很難設計anchor?,F在圖片中的檢測算法一般需要先在稠密的二維空間中提取anchor,然后再對anchor不斷過濾、回歸和分類。但是在PointNet++中處理的是稀疏的點云,在點云中很難確根據一個點確定物體的中心位置。

2 基于圖片和激光雷達數據的方法

從融合的時間點來看,多特征融合方法大致可以分為兩類:前融合和后融合。前融合首先將不同來源的數據的特征進行融合,然后對融合后的特征進行處理得到檢測的結果。后融合中不同特征分別經過獨立的過程得到檢測結果,然后再將這些結果融合到一起。

兩種方法各有優劣,前融合能夠更好的挖掘不同特征之間的聯系從而得到更好的檢測結果,而后融合從宏觀來看具有更強的系統穩定性,當部分感知設備出現故障時只要還有一個設備在工作,那么就不會讓整個感知系統崩潰。

本節主要介紹一些前融合的相關算法。

近幾年出現了很多圖片和激光雷達數據融合的方法。Chen提出了MV3D的方法,其首先在不同數據上提取特征圖,然后在點云的鳥瞰圖中做三維物體檢測,之后將檢測的結果分別映射到鳥瞰圖、Range Image和圖片中,通過roi-pooling分別在三種特征圖中進行特征提取,最后將提取到的特征融合在一起再做后續的處理【16】。這個方法中檢測過程只在鳥瞰圖中進行,融合了鳥瞰圖、Range Image和圖片這三類數據源的特征。

圖5:MV3D的算法流程圖

Qi提出的FPointNet方法也使用了類似的思路,首先在圖片上做物體檢測,然后找到對應的物體的點云【18】。得到每個物體的點云之后,采用了類似PointNet的思路對物體的點云進行特征提取。

圖6:FPointNet的算法流程圖

這兩個方法具有一定的共通之處:都具有似于FasterRCNN的兩段式(two-stage)檢測方法的串行過程,即先在某一種數據的特征圖上進行物體的檢測(這個過程也稱為proposal),然后根據檢測到的結果再在其他的數據中提取特征。這類方法的問題在于第一步proposal的過程并沒有引入其他的特征。上面討論過對于自動駕駛的檢測任務來說,召回率是非常重要的指標,而這類算法的召回率的上限直接與某一種數據類型綁定,并沒有很好地達到自動駕駛目標檢測中特征融合的目的。

Liang提出了一種將圖片特征融合到鳥瞰圖中的方法【19】。其核心思路是:對于鳥瞰圖中每個位置首先在三維空間中尋找臨近的點,然后把將這些點根據激光雷達和攝像機標定信息投影到圖片特征圖上,最后將對應的圖片特征和點的三維信息融合到鳥瞰圖對應的位置中。融合后的結果是得到了一個具有更多信息量的鳥瞰圖的特征圖。

這個特征圖中除了包含自帶的點云信息還包含了相關的圖片信息。后續的分割和檢測任務都基于這個特征圖。這個方法中雖然還是在鳥瞰圖中對物體進行檢測,但是由于此時特征圖中還包含了圖像信息,因此從理論上來說可以得到更高的召回率。

圖7:圖片特征與點云特征融合的算法流程圖

3 基于多幀激光雷達數據的方法

為了得到較穩定的檢測結果,可以在后處理中增加約束、也可以在跟蹤算法中進行濾波。這些方法可以看作通過手工設計一些操作以減少各項檢測結果的方差,從現有的理論上來看,通過學習類算法自動設計相關操作應該有更好的效果。Luo利用深度神經網絡在鳥瞰圖中通過連續幀的數據進行目標檢測【20】。

其建立了一個“多入多出”的結構,即算法的輸入是過去連續幀的鳥瞰圖,而算法的輸出是當前時刻和未來連續時刻的物體位置。Luo希望通過這種結構讓網絡不僅僅學習到物體在鳥瞰圖中的形狀,還可以學習到物體的速度、加速度信息。其步驟如下:

設當前幀為i并設定時間窗口k,選取第i-k+1幀到第i幀的點云,并將這些點云根據GPS/IMU的信息映射到第i幀的坐標系下;
分別提取這k幀點云的特征;
融合這些特征;
輸出第i幀和未來若干幀物體的信息,并建立軌跡。

這個方法可以在減少物體檢測的噪聲、增加召回率同時增加檢測結果的穩定性。例如當道路上某輛車突然被其他其他的車輛遮擋,由于前面若干幀中是存在這個車的點云的,所以此時是可以通過網絡猜測到其當前真實的位置。

當被遮擋的車輛逐漸脫離遮擋區域時,雖然歷史時刻中沒有其對應的點云信息,但是當前時刻存在其點云,所以同樣也可以檢測到其位置。

這篇文章從一定程度上證明了這樣做的可行性,但是還有一些方面值得繼續挖掘:更好的特征融合的方式、每次不重復提取幀的特征以及更好的處理軌跡的方法等。

總結

本文介紹了自動駕駛中常用的激光雷達的成像原理及其生成數據的特點,并簡單描述了相關的目標檢測的數據結構和算法?;诩す饫走_數據的目標檢測不是一個很新的領域,但是隨著在深度學習的廣泛運用以及自動駕駛的興起,這個領域在這幾年不斷出現更好的方法。下表是對本文中提到的方法的簡單的總結。表中感知范圍一欄表示約束算法檢測范圍的最主要的傳感器。

在實際中設計相關算法時一般不是完整地應用其中某一個方法,而是首先采用某個方法的工作流程作為主體框架,然后根據在實際情況中遇到的問題再不斷地對其進行修改。

從長遠來看,激光雷達未必是自動駕駛系統中必須的設備,因為多角度攝像頭的圖片結果理論上可以做到周圍空間的三維感知。但是就現階段來說,激光雷達還是一種非常可靠的感知手段。

隨著工藝的進步,激光雷達的線數和可視范圍會逐漸增加。對于目標檢測算法來說,高線數激光雷達的數據一定比低線數雷達的要好,但是高線數也對算法的速度有著更高的要求,所以相關算法的效率的提高可能會是一個研究的方向。

由于激光雷達的本身的特性,小物體、遠處物體和被遮擋物體的點云相對稀疏,提高這種情況下算法的效果可能會是相關研究的另一個方向。實際應用中激光雷達目標檢測可能面臨的問題更多,包括但不僅限于高效的數據標注、處理不平坦的地面、不同天氣的影響、不同物體材質的區分、算法效果與復雜度的權衡、算法效果的評估等等。

希望這些問題可以隨著技術的發展逐步得到解決,未來可以真正實現安全便捷的自動駕駛。

總結

以上是生活随笔為你收集整理的激光雷达目标检测(下)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。