传统的6d位姿估计fangfa1_基于改进的点对特征的6D位姿估计
來源:公眾號|計(jì)算機(jī)視覺工坊(系投稿)
作者:仲夏夜之星
「3D視覺工坊」技術(shù)交流群已經(jīng)成立,目前大約有12000人,方向主要涉及3D視覺、CV&深度學(xué)習(xí)、SLAM、三維重建、點(diǎn)云后處理、自動駕駛、CV入門、三維測量、VR/AR、3D人臉識別、醫(yī)療影像、缺陷檢測、行人重識別、目標(biāo)跟蹤、視覺產(chǎn)品落地、視覺競賽、車牌識別、硬件選型、學(xué)術(shù)交流、求職交流、ORB-SLAM系列源碼交流、深度估計(jì)等。工坊致力于干貨輸出,不做搬運(yùn)工,為計(jì)算機(jī)視覺領(lǐng)域貢獻(xiàn)自己的力量!歡迎大家一起交流成長~
添加小助手微信:CV_LAB,備注學(xué)校/公司+姓名+研究方向即可加入工坊一起學(xué)習(xí)進(jìn)步。
QQ群「3D視覺研習(xí)社」,群號:574432628
論文題目:6D Pose Estimation using an Improved Method based on Point Pair Features
作者:Joel Vidal, Chyi-Yeu Lin
譯者:仲夏夜之星
文獻(xiàn)下載:在公眾號「計(jì)算機(jī)視覺工坊」后臺,回復(fù)「改進(jìn)的點(diǎn)對特征」,即可獲取論文。
摘要:點(diǎn)對特征是基于模型的6D位姿估計(jì)方法中最成功的一種,作為傳統(tǒng)的局部和全局管道的一種高效、綜合和折衷的替代方法。在過去的幾年里,已經(jīng)提出了幾種不同的算法。Hinterstoisser等人提出的解決方案是一個(gè)主要貢獻(xiàn)。在2017年ICCV第三屆關(guān)于恢復(fù)6D物體姿態(tài)的國際研討會上,本研究提出了一種適用于SIXD挑戰(zhàn)數(shù)據(jù)集的PPF方法的變體,所有數(shù)據(jù)集的平均召回率為0.77,而對hinterstoisser、tless、tudlight、rutgers、tejani和doumanoglou數(shù)據(jù)集的總體召回率分別為0.82、0.67、0.85、0.37、0.97和0.96。
一 引言
三維目標(biāo)識別,特別是6D位姿估計(jì)問題是目標(biāo)處理中的關(guān)鍵步驟。在過去的幾十年里,3D數(shù)據(jù)和基于特征的方法已經(jīng)在基于模型的方法獲得廣泛的聲譽(yù)。一般來說,基于模型的方法分為兩大類:全局方法和局部方法。全局方法使用一個(gè)全局描述描述整個(gè)對象或其部分。局部方法通過使用圍繞特定點(diǎn)的局部描述符來描述對象。全局描述通常需要對目標(biāo)對象或目標(biāo)部分進(jìn)行分割,而忽略了局部細(xì)節(jié)的區(qū)分性。這些特征使得全局方法在遮擋和高度雜亂的場景下不健壯。另一方面,由于傳感器噪聲的局部性質(zhì),局部方法通常對傳感器噪聲更敏感,并且它們傾向于在具有重復(fù)特征的對稱對象或?qū)ο笊媳憩F(xiàn)出較低的性能。
在三維目標(biāo)識別方法上,Drost等人[1]提出的點(diǎn)對特征方法已經(jīng)被證明是最成功的方法之一,它具有很強(qiáng)的識別特性,是一種融合了局部和全局方法優(yōu)點(diǎn)的折衷解決方案。在對該方法提出的幾種擴(kuò)展中,Hinterstoisser等人[2]分析了一些最薄弱的地方,并提出了一種擴(kuò)展解決方案,在存在傳感器噪聲和背景雜波的情況下提供了一個(gè)顯著的改善。本文提出了該方法的一種新的改進(jìn)方法,并針對最近在ICCV 2017第三屆恢復(fù)6D對象位姿國際研討會上組織的2017年第六次挑戰(zhàn)[3]上提出的具有挑戰(zhàn)性的數(shù)據(jù)集測試了其性能。
二 點(diǎn)對特征方法
本文提出的方法遵循Drost et al.[1]定義的點(diǎn)對特征(PPF)方法的基本結(jié)構(gòu),由兩個(gè)階段組成:全局建模和局部匹配。這種方法的主要思想是為每個(gè)場景點(diǎn)找到對應(yīng)的模型點(diǎn)和它們的旋轉(zhuǎn)角度,該方法可以從兩個(gè)點(diǎn)之間的距離以及它們的法線和圍繞法線的旋轉(zhuǎn)角度來完成。這種對應(yīng)關(guān)系是通過使用一個(gè)四維特征(圖1)來定義的,該特征定義在每對兩點(diǎn)及其法線之間,因此每個(gè)模型點(diǎn)都是由它自己創(chuàng)建的所有點(diǎn)對和所有其他模型點(diǎn)來定義的。
圖1 點(diǎn)對特征
首先,在全局建模階段,通過對數(shù)據(jù)進(jìn)行下采樣,對輸入的模型數(shù)據(jù)進(jìn)行預(yù)處理。然后,使用離散化的PPF作為索引,構(gòu)建一個(gè)存儲模型對的四維查找表(圖2)。此表將提供對從場景點(diǎn)對獲得的離散PPF特征所指向的每個(gè)單元的所有模型對應(yīng)參考點(diǎn)及其旋轉(zhuǎn)角的恒定訪問。
圖2 全局建模的樣例
在局部匹配階段,使用與建模部分相同的技術(shù)對輸入數(shù)據(jù)進(jìn)行預(yù)處理。對于每個(gè)給定的場景點(diǎn),所有可能的PPF都被離散化,并用作查找表的索引,得到一組表示所有可能對應(yīng)候選的模型點(diǎn)和旋轉(zhuǎn)角的對。這些候選點(diǎn)中的每一個(gè)都在一個(gè)類似于Hough的投票方案中的表格上投下一票,其中每個(gè)值表示由模型點(diǎn)和旋轉(zhuǎn)角度定義的假設(shè)轉(zhuǎn)換(圖3)。然后,提取峰值作為這個(gè)場景點(diǎn)對應(yīng)的最佳候選。最后,對從場景點(diǎn)得到的所有假設(shè)進(jìn)行聚類,并應(yīng)用一組后處理步驟來提取最佳假設(shè)。
圖3 局部匹配的樣例
三 實(shí)驗(yàn)
為了提高該方法在局部匹配階段的運(yùn)行時(shí)間性能,只使用kd樹結(jié)構(gòu)檢查距離小于模型直徑的點(diǎn)對。本文遵循[2]提出的思想,該系統(tǒng)避免對相同離散的PPF和旋轉(zhuǎn)角度進(jìn)行兩次投票,并檢查所有PPF索引鄰居以考慮傳感器噪聲。本文不檢查哈希表中的所有80個(gè)鄰域,而是提出了一個(gè)更有效的解決方案,只投票給那些有很大機(jī)會受到噪聲影響的鄰域?yàn)榱藱z查量化誤差(圖4)。
圖4 在量化過程中考慮傳感器噪聲的鄰域方案
假設(shè)聚類后,對投票最多的500個(gè)假設(shè)使用簡化的依賴視圖的重評分過程。在這個(gè)過程中,假設(shè)會根據(jù)它們與場景數(shù)據(jù)的契合程度重新排序。此外,為了提高評分的穩(wěn)健性,對前200個(gè)評分進(jìn)行ICP[4]精配準(zhǔn)。最后,應(yīng)用兩個(gè)濾波后處理步驟來丟棄特殊的模糊情況,如平面和部分匹配曲面。第一步檢查非一致點(diǎn)去除假設(shè)是部分?jǐn)M合場景除非場景點(diǎn)沒有足夠的一致性。第二步檢查相對于場景邊緣對象輪廓的重疊率,以便過濾具有非匹配邊界的擬合良好的對象。
四 實(shí)驗(yàn)數(shù)據(jù)
2017年的第六次挑戰(zhàn)[3]提出了一套數(shù)據(jù)集,用于評估單一對象的單一實(shí)例的6D本地化任務(wù)。上述數(shù)據(jù)集如表1所示,分別為:hinterstoisser、tless、tudlight、rutgers、tejani和doumanoglou。每個(gè)數(shù)據(jù)集包含一組3D對象模型和RGB-D測試圖像。所提出的場景涵蓋了廣泛的情況與各種對象在不同的姿態(tài)和環(huán)境,包括多個(gè)實(shí)例,雜波和遮擋。這6個(gè)數(shù)據(jù)集共包含68個(gè)不同的對象模型(圖5)和60475幅測試圖像。請注意,rutgers、tejani和doumanoglou是精簡版,doumanoglou的型號也包含在tejani中。
圖5 數(shù)據(jù)集中使用的一些模型
表1 數(shù)據(jù)集模型和RGB-D測試圖像
五 實(shí)驗(yàn)結(jié)果
圖6 所有數(shù)據(jù)集結(jié)果的樣例
(a)hinterstoisser, (b) tless, (c) tudlight, (d) rutgers, (e) tejani and (f) doumanoglou.
六 結(jié)論
本工作提出了PPF方法的一個(gè)新的改進(jìn)方法,并根據(jù)最近發(fā)布的6D挑戰(zhàn)2017引入的數(shù)據(jù)集測試其性能[3]包括68個(gè)對象模型和60475個(gè)測試圖像。該方法引入了一種新的具有正常聚類和鄰居對濾波的次采樣步驟,此外,還引入了一種更快的kd樹鄰居搜索和更有效的解決方案傳感器噪聲的影響。最后,該方法使用幾個(gè)后驗(yàn)證步驟重新評分、細(xì)化和過濾最終假設(shè)。所獲得的結(jié)果使用VSD[5]度量,在大多數(shù)數(shù)據(jù)集上顯示出高而一致的性能,平均召回率為0.77,但Rutgers數(shù)據(jù)集除外,該數(shù)據(jù)集顯示出明顯較低的速率。
參考文獻(xiàn)
[1] B. Drost, M. Ulrich, N. Navab, and S. Ilic, “Model globally, match locally: Efficient and robust 3d object recognition,” In 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2010, pp. 998–1005.
[2] S. Hinterstoisser, V. Lepetit, N. Rajkumar, and K. Konolige, “Going Further with Point Pair Features,” In Proceedings of the European Conference on Computer Vision (ECCV), 2016.
[3] SIXD Challenge 2017. http://cmp.felk.cvut.cz/ sixd/challenge_2017/. Accessed: 2017-9-28.
[4] S. Rusinkiewicz and M. Levoy, “Efficient variants of the ICP algorithm,” In Proceedings Third International Conference on 3-D Digital Imaging and Modeling, 2001, pp. 145–152.
[5] T. Hodan, J. Matas, and S. Obdrzalek, “On Evaluation of 6D Object Pose Estimation,” In ECCV Workshop, 2016.
本文僅做學(xué)術(shù)分享,如有侵權(quán),請聯(lián)系刪文。
總結(jié)
以上是生活随笔為你收集整理的传统的6d位姿估计fangfa1_基于改进的点对特征的6D位姿估计的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: oc 协议 回调 静态成员_OC底层原理
- 下一篇: keras提取模型中的某一层_keras