SLAM: Inverse Depth Parametrization for Monocular SALM
首語(yǔ):
????????? 此文實(shí)現(xiàn)客觀的評(píng)測(cè)了使線性化的反轉(zhuǎn)深度的效果。整篇只在表明反轉(zhuǎn)可以線性化,解決距離增加帶來(lái)的增長(zhǎng)問(wèn)題,有多少優(yōu)勢(shì)……%!
????????? 我的天呢!我竟然完整得翻譯了一遍。
??????? 使用標(biāo)記點(diǎn)地圖構(gòu)建SLAM的方法,有一種EKFmonocularSLAM的存在,可以不使用BA直接完成稀疏場(chǎng)景地圖重建,詳細(xì)方法和代碼見官網(wǎng):http://www.openslam.org/
??????? EKF-SLAM使用EKF方法,所使用的方法參考兩篇論文:
Long Description
??? ??? This code contains a complete EKF SLAM system from a monocular sequence, taking as input a sequence from a monocular camera and estimating the 6 DOF camera motion and a sparse 3D map of salient point features. The key contributions in this code are two:
??????? 1)? INVERSE DEPTH POINT PARAMETRIZATION. This point model suits the projective nature of the camera sensor, allowing to code in the SLAM map very distant points naturally captured by a camera. It is also able to code infinite depth uncertainty, allowing undelayed initialization of point features from the first frame they were seen. At any step, the measurement equation shows the high degree of linearity demanded by the EKF.
? ? ? ? 2)? 1-POINT RANSAC. Robust data association has proven to be a key issue in any SLAM algorithm. 1-Point RANSAC is an algorithm based on traditional random sampling but adapted to the EKF. Specifically, it exploits probabilistic information from the EKF to greatly improve the efficiency over standard RANSAC.
?????? 本文翻譯第一篇:《 nverse Depth Parametrization for Monocular SALM 》
Inverse Depth Parametrization for Monocular SLAM
Javier Civera, Andrew J. Davison, J.M.M Montiel, Member, IEEE
Abstract
?????We?present?a?new?parametrization?for?point?features?within?monocular?SLAM?which?permits?efficient?and?accurate?representation?of?uncertainty?during?undelayed?initialisation?and?beyond,?all?within?the?standard?EKF?(Extended?Kalman?Filter).?The?key?concept?is?direct?parametrization?of?the?inverse?depth?of?features?relative?to?the?camera?locations?from?which?they?were?first?viewed,?which?produces?measurement?equations?with?a?high?degree?of?linearity.?Importantly,?our?parametrization?can?cope?with?features?over?a?huge?range?of?depths,?even?those?which?are?so?far?from?the?camera?that?they?present?little?parallax?during?motion?—?maintaining?sufficient?representative?uncertainty?that?these?points?retain?the?opportunity?to?‘come?in’?smoothly?from?infinity?if?the?camera?makes?larger?movements.?Feature?initialization?is?undelayed?in?the?sense?that?even?distant?features?are?immediately?used?to?improve?camera?motion?estimates,?acting?initially?as?bearing?references?but?not?permanently?labeled?as?such.
?????The?inverse?depth?parametrization?remains?well?behaved?for?features?at?all?stages?of?SLAM?processing,?but?has?the?drawback?in?computational?terms?that?each?point?is?represented?by?a?six?dimensional?state?vector?as?opposed?to?the?standard?three?of?a?Euclidean?XYZ?representation.?We?show?that?once?the?depth?estimate?of?a?feature?is?sufficiently?accurate,?its?representation?can?safely?be?converted?to?the?Euclidean?XYZ?form,?and?propose?a?linearity?index?which?allows?automatic?detection?and?conversion?to?maintain?maximum?efficiency?—?only?low?parallax?features
need?be?maintained?in?inverse?depth?form?for?long?periods.?We?present?a?real-time?implementation?at?30Hz?where?the?parametrization?is?validated?in?a?fully?automatic?3D?SLAM?system?featuring?a?hand-held?single?camera?with?no?additional?sensing.?Experiments?show?robust?operation?in?challenging?indoor?and?outdoor?environments?with?very?large?ranges?of?scene?depth,?varied?motion?and?also?real-time?360???loop?closing.
?Index?Terms—Real-time?vision,?monocular?SLAM.實(shí)時(shí)視覺,單目視覺。
????本文為單目SLAM方法?提出一個(gè)?點(diǎn)特征參數(shù)化的?新方法,?使用標(biāo)準(zhǔn)EKF方法為非延遲初始化完成有效和精確的表示。主要內(nèi)容是(涉及到?初次探測(cè)的相機(jī)位置/世界坐標(biāo)系)直接參數(shù)化?,產(chǎn)生一個(gè)高度線性的測(cè)量方程。?重要的是,我們的方法可以處理長(zhǎng)程/長(zhǎng)距離的特征,甚至一些遠(yuǎn)到?移動(dòng)期間視差很小的運(yùn)動(dòng)——并可維持?有效地表達(dá)?典型非確定性(在非特定情況下的有效表達(dá))——若相機(jī)有一個(gè)長(zhǎng)距離的移動(dòng)(從離相機(jī)無(wú)限遠(yuǎn)平滑地接近)。在需要即時(shí)進(jìn)行提升相機(jī)估計(jì)的場(chǎng)景中可以做到無(wú)延遲的特征初始化,只是作為對(duì)照引用而非永久標(biāo)記。
????深度反轉(zhuǎn)參數(shù)法在SLAM過(guò)程中所有的階段?保持良好的運(yùn)行,但是在?計(jì)算(方面)?與?標(biāo)準(zhǔn)XYZ歐式表達(dá)相反?的標(biāo)記六自由度狀態(tài)向量的每一個(gè)點(diǎn)(對(duì)比)時(shí)仍有缺點(diǎn)。?我們表明?一旦特征的深度估計(jì)?足夠精確,?其表示可以安全地轉(zhuǎn)換為標(biāo)準(zhǔn)歐式XYZ形式,并且?提出/生成?一個(gè)允許可保持最大效率的?自動(dòng)探測(cè)和轉(zhuǎn)換——在相當(dāng)長(zhǎng)的時(shí)間內(nèi)?只需要需要保留?很少的并行特征用于深度生成。?我們提出一個(gè)?實(shí)時(shí)的?可以達(dá)到30Hz(用于在自動(dòng)3D場(chǎng)景SLAM過(guò)程)--單目手持(不附帶額外場(chǎng)景模式)的穩(wěn)固的參數(shù)化過(guò)程?。實(shí)驗(yàn)顯示算法在室內(nèi)/室外場(chǎng)景中在360度閉環(huán)檢測(cè)中具有魯棒性。
I.?INTRODUCTION
?????單目攝像機(jī)是一個(gè)測(cè)量系列圖像投影的設(shè)備。給出移動(dòng)攝像獲得的,?一個(gè)3維剛體物體的序列圖像,可以根據(jù)?一個(gè)比例因子?同時(shí)計(jì)算出整個(gè)場(chǎng)景和攝像機(jī)的移動(dòng)。攝像機(jī)必須重復(fù)地觀測(cè)一個(gè)物體,每次獲取物體影像到圖像光心。從不同的視角獲取的圖像,計(jì)算出的(測(cè)定)的角度?為特征的視差——這就是允許/用于深度估計(jì)的參數(shù)。
????在離線SFM(移動(dòng)中重建)文獻(xiàn)的解決方案(e.g.?[11],?[23])中,移動(dòng)和結(jié)構(gòu)從一系列圖像中被估計(jì)(?利用相鄰成對(duì)圖像中的魯棒特征?估計(jì)運(yùn)動(dòng)相關(guān)性)。然后一個(gè)優(yōu)化方法?迭代地更新估計(jì)全局相機(jī)位置和場(chǎng)景特征位置(以至于特征投影盡可能地靠近他們的測(cè)量位置(光束法平差)?)。本著這種精神/源自于此種精髓?的一些方法?使用了滑窗過(guò)程替代全局優(yōu)化,得到/演變出令人印象深刻的?“視覺里程法”解決方案,?已應(yīng)用于立體圖像序列[21]?和單目圖像序列?[20](構(gòu)建)。
????達(dá)到實(shí)時(shí)SFM的另一個(gè)途徑是在線SLAM方法,?利用一個(gè)概率濾波進(jìn)行位置特征序列(地圖)和攝像機(jī)角度位置?的更新。SLAM方法相對(duì)于視覺里程法有特定的優(yōu)勢(shì)和弱點(diǎn),能夠利用有限的地圖特征構(gòu)建連續(xù)和無(wú)漂移的全局地圖。核心算法為擴(kuò)展卡爾曼濾波,(此方法)在多傳感器機(jī)器人中被證明,首次被應(yīng)用于Davison?et?al.?[8]?[9]?實(shí)時(shí)單目重建?,其可以進(jìn)行30Hz的稀疏重建。
????Davison’s?方法和類似方法的一個(gè)局限是,他們只能處理?小幅度相機(jī)-距離變化的圖像特征,并且要求具有顯著的視差。此問(wèn)題在?非確定性深度估計(jì)(遠(yuǎn)距離特征被初始化):采用?直接歐式XYZ方法參數(shù)化,當(dāng)高斯分布應(yīng)用于?EKF方法時(shí)?造成的位置不確定性的小視差特征,不能被較好地表達(dá)。這些特征的深度坐標(biāo)有一個(gè)概率密度,?能明顯增強(qiáng)一個(gè)良定義的小深度值的尖峰,然而隨后逐漸縮小到無(wú)窮遠(yuǎn)(以/從一個(gè)小視差測(cè)量),?這很難給出是否一個(gè)特征擁有10?個(gè)單位而不是100個(gè)、1000個(gè)或者更多。隨后的論文中我們偏向于直接的歐式XYZ坐標(biāo)的使用。???
?????最近有一些較新的方法提出用于解決此類問(wèn)題,依賴于(不被普遍需要的)新的特征。在此文中,我們提出一個(gè)新的特征參數(shù)化方法?能都平滑的用于所有深度的特征初始化——甚至是“無(wú)窮遠(yuǎn)”,并直接使用標(biāo)準(zhǔn)EKF框架。關(guān)鍵內(nèi)容是使用與攝像機(jī)位置相關(guān)的(第一次被)首先被觀測(cè)到特征?進(jìn)行直接參數(shù)化。
A.?Delayed?and?Undelayed?Initialization??何時(shí)初始化?延遲還是不延遲?
????最常見的處理特征初始化的方法是,將處理新探測(cè)到的特征匯?從主地圖中抽離,在/從特定過(guò)程中(在嵌入整個(gè)使用標(biāo)準(zhǔn)XYZ表達(dá)的濾波器之前)從幾幀圖像中收集信息降低不確定性。這種延遲初始化策略?(e.g.?[8],?[14],?[3])有一樣缺陷?:維持在主要概率狀態(tài)之外的新特征,不能夠?對(duì)最終地圖中的相機(jī)位置估計(jì)做出貢獻(xiàn)(對(duì)?會(huì)存在的最終的地圖中的相機(jī)位置估計(jì)沒有效果)。更深刻地說(shuō),那些多幀仍持有較低視差的特征(那些遠(yuǎn)離攝像機(jī)的塊,或者靠近移動(dòng)?核/極點(diǎn)位置的塊)通常會(huì)被完全拒絕掉,?因?yàn)椴荒芡ㄟ^(guò)包含(可利用)測(cè)試?
????在延遲方法中Bailey?[2],初始化被推遲直到測(cè)量方程接近高斯,且點(diǎn)可以安全地被三角化時(shí)。如在2D中被提出和在模擬實(shí)驗(yàn)中被驗(yàn)證的,一個(gè)相似的方法(附有慣性傳感器的3D視覺)被提出?[3],?Davison引用一個(gè)新的特征[8](通過(guò)?嵌入一個(gè)3D半無(wú)限雷達(dá)?到主?地圖(表示了除了深度以外的各種特征)?),然后使用一個(gè)輔助粒子濾波器經(jīng)過(guò)幾幀去清晰地更新深度,利用了高幀率序列的所有測(cè)量(除了在主狀態(tài)之外的狀態(tài)向量)。
????更近一段時(shí)間,幾個(gè)非延遲初始化的方法被提出,依然是使用一些特殊方法處理新進(jìn)特征但?能夠立刻對(duì)攝像機(jī)位置估計(jì)產(chǎn)生效用,主要視角是?盡管帶有高度非確定深度的特征?對(duì)于估計(jì)相機(jī)轉(zhuǎn)換?提供的信息太少,但對(duì)方向估計(jì)有極大的as軸承/參考的作用。非延遲方法為Kwok?and?Dissanayake所提出?[15]?,是一個(gè)多假設(shè)方法,初始化特征到多深度,并在子序列未被觀察時(shí)進(jìn)行剪枝。
????Sola?et?al.?[25],?[24]?描述了一個(gè)更為嚴(yán)格的非延遲方法?使用一個(gè)近似高斯和濾波器(通過(guò)聯(lián)合信息)使保持計(jì)算負(fù)載較低。一個(gè)重要的視點(diǎn)是擴(kuò)展高斯深度假設(shè)(通過(guò)反轉(zhuǎn)深度到ray方向射線),在此方式上得到更好的表達(dá)。這種方法可能是?Davison的粒子算法和我們的反轉(zhuǎn)深度方法的墊腳石。(一個(gè))高斯和?是比粒子更為有效的表達(dá)(足夠有效到各自的高斯可以被放入主狀態(tài)向量),但仍然不如單個(gè)的(使用反轉(zhuǎn)深度參數(shù)化的)高斯表達(dá)?;注意的是?[15]?nor?[25]?考慮特征在一個(gè)非常大的?“無(wú)限的”深度。
B.?Points?at?Infinity?無(wú)限遠(yuǎn)點(diǎn)
????本文的一個(gè)主要?jiǎng)訖C(jī)/推進(jìn)/改進(jìn)?不僅是非延遲初始化,還包括處理所有深度的特征的需求,尤其是在室外場(chǎng)景。在SFM中,無(wú)窮遠(yuǎn)點(diǎn)在相機(jī)變換時(shí)是表示為無(wú)視差的(因其為極限深度)。比如一個(gè)星星可能在一個(gè)圖像中表示為一個(gè)位置(盡管其在數(shù)千里之外移動(dòng)了數(shù)千米)。這樣的特征不能被使用用于估計(jì)相機(jī)變化,但可以作為一個(gè)完美的軸承/參考用于旋轉(zhuǎn)估計(jì)。視覺投影幾何?的齊次坐標(biāo)系(被正常使用?在SFM中的)可以清晰地表示無(wú)窮遠(yuǎn)點(diǎn),?并且在離線構(gòu)建和姿態(tài)估計(jì)中?表示為一個(gè)?重要的角色。
?????在序列SLAM系統(tǒng)中,困難是?我們并不預(yù)先知道那些特征是無(wú)窮遠(yuǎn)的,Montiel?and?Davison?[19]表示在特定的情況下所有的特征被認(rèn)為是無(wú)窮遠(yuǎn)的?!诖蠓秶氖彝鈭?chǎng)景或者相機(jī)在三角桌上旋轉(zhuǎn)時(shí),SLAM在純角度/極坐標(biāo)系表現(xiàn)為實(shí)時(shí)攝像機(jī)視覺羅盤。?????在更一般的場(chǎng)合,讓我們想象一個(gè)相機(jī)穿越一個(gè)3D場(chǎng)景(即觀測(cè)一個(gè)長(zhǎng)程的深度特征)。從點(diǎn)的視角估計(jì)開始,我們可以認(rèn)為所有的特征從無(wú)限遠(yuǎn)開始,并且“接近”?(隨著攝像機(jī)移動(dòng)的足夠遠(yuǎn)到)直到可以測(cè)量有效的視差。????在室內(nèi)的場(chǎng)景中,僅僅幾分米的距離便足夠有效。遠(yuǎn)距特征可能要求更多的米數(shù)或者數(shù)千米(在視差被觀測(cè)到之前),重要的是這些特征是并非長(zhǎng)久地標(biāo)記——一個(gè)看似無(wú)窮遠(yuǎn)的特征,?應(yīng)當(dāng)一直有機(jī)會(huì)(通過(guò)移動(dòng)足夠的距離)證明他的無(wú)限遠(yuǎn)深度,否則在建立場(chǎng)景地圖時(shí)將會(huì)產(chǎn)生嚴(yán)重的同步錯(cuò)誤。????我們的概率SLAM算法應(yīng)當(dāng)能夠表達(dá)看起來(lái)無(wú)限遠(yuǎn)的深度的非特定性。在攝像機(jī)變化10個(gè)單位之后(若是特征比我們可以觀測(cè)到的視差更近)仍然觀測(cè)不到誤差,其不能告訴我們關(guān)于深度的任何信息—(他給出了可信賴的更低的邊界——這又依賴于相機(jī)造成的移動(dòng)的數(shù)量)。這種對(duì)非確定性的清晰考慮并不被離線算法事先要求,但是對(duì)(實(shí)現(xiàn)起來(lái))更困難的在線算法?非常重要。
C.?Inverse?Depth?Representation?反轉(zhuǎn)深度表達(dá)
???????Our?contribution?is?to?show?that?in?fact?there?is?a?unified?and?straightforward?parametrization?for?feature?locations?which?can?handle?both?initialisation?and?standard?tracking?of?both?close?and?very?distant?features?within?the?standard?EKF?framework.An?explicit?parametrization?of?the?inverse?depth?of?a?feature?along?a?semi-infinite?ray?from?the?position?from?which?it?was?first?viewed?allows?a?Gaussian?distribution?to?cover?uncertainty?in?depth?which?spans?a?depth?range?from?nearby?to?infinity,?and?permits?seamless?crossing?over?to?finite?depth?estimates?of?features?which?have?been?apparently?infinite?for?long?periods?of?time.??The?unified?representation?means?that?our?algorithm?requires?no?special?initialisation?process?for?features.?They?are?simply?tracked?right?from?the?start,?immediately?contribute?to?improved?camera?estimates?and?have?their?correlations?with?all?other?features?in?the?map?correctly?modeled.?Note?that?our?parameterization?would?be?equally?compatible?with?other?variants?of?Gaussian?filtering?such?as?sparse?information?filters.
????我們的貢獻(xiàn)是揭示事實(shí)上?對(duì)于特征定位(可以使用標(biāo)準(zhǔn)EKF框架?同時(shí)進(jìn)行初始化和對(duì)近距離與極遠(yuǎn)距離的標(biāo)準(zhǔn)追蹤)有一致(標(biāo)準(zhǔn)的)和直接的測(cè)參數(shù)化方法。一個(gè)清晰地對(duì)來(lái)自于正無(wú)窮半軸的特征的參數(shù)化(??這一句太長(zhǎng)了,翻譯不了...)???????????????。統(tǒng)一的表達(dá)意味著我們的算法不要求對(duì)特征進(jìn)行特別的初始化過(guò)程。特征一般從開始即被追蹤,立刻起作用于提升相機(jī)估計(jì)和正確對(duì)地圖建模的所有特征的聯(lián)系。?值得注意的是:我們的參數(shù)化過(guò)程能夠平穩(wěn)兼容高斯濾波比如稀疏信息濾波器。
????我們引入線性索引并使用它分析和提升?對(duì)于全部低和高視差的深度反轉(zhuǎn)特征的表達(dá)能力。深度反轉(zhuǎn)算法的唯一的缺陷是:?不斷增長(zhǎng)的狀態(tài)向量(我艸,不能丟幀嗎),因?yàn)榉崔D(zhuǎn)深度參數(shù)點(diǎn)需要記6個(gè)參數(shù)?而不是3個(gè)XYZ編碼。作為此問(wèn)題的解決方案,我們展示了我們的線性索引(當(dāng)特征可以安全地從反轉(zhuǎn)深度到標(biāo)準(zhǔn)XYZ?時(shí),也可應(yīng)用于XYZ參數(shù)化到信號(hào))。反轉(zhuǎn)深度表達(dá)可以因此應(yīng)用于小視差特征情形(當(dāng)XYZ編碼從高斯分離時(shí))。值得注意的是:這種“轉(zhuǎn)換”,不像延遲初始化方法,能夠直接減少計(jì)算負(fù)擔(dān)。(此時(shí))SLAM精度帶有或者沒有轉(zhuǎn)換方法的效果是一樣的。
????事實(shí)上一個(gè)攝像機(jī)的投影性質(zhì)意味著,圖像測(cè)量過(guò)程是接近線性的(在反轉(zhuǎn)深度坐標(biāo)系中)(注釋:一個(gè)距離-大小反比關(guān)系)。反轉(zhuǎn)深度圖像是一個(gè)在計(jì)算機(jī)視覺中廣泛應(yīng)用的概念:被譯為圖像差別和點(diǎn)的深度。?在立體視覺中:被譯為?(相對(duì)于無(wú)限遠(yuǎn)中的平面的)視差(在[12]).?反轉(zhuǎn)深度圖像也用于表示被場(chǎng)景點(diǎn)集包含的相機(jī)移動(dòng)速率(在光流分析法中)。在追蹤社區(qū)中,“修改后的極坐標(biāo)系[1]?”依然探索了深度反轉(zhuǎn)表達(dá)的線性屬性(輕度不同但緊密相關(guān)的)問(wèn)題:TMA?利用純相位法傳感器?(獲得的已知運(yùn)動(dòng))收集(到的)測(cè)量數(shù)據(jù)?做目標(biāo)運(yùn)動(dòng)分析。
????However,?the?inverse?depth?idea?has?not?previously?been?properly?integrated?in?sequential,?probabilistic?estimation?of?motion?and?structure.?It?has?been?used?in?EKF?based?sequential?depth?estimation?from?camera?known?motion?[16]?and?in?multibaseline?stereo?Okutomi?and?Kanade?[22]?used?the?inverse?depth?to?increase?matching?robustness?for?scene?symmetries;?matching?scores?coming?from?multiple?stereo?pairs?with?different?baselines?were?accumulated?in?a?common?reference?coded?in?inverse?depth,?this?paper?focusing?on?matchingrobustness?and?not?on?probabilistic?uncertainty?propagation.?In?[5]?Chowdhury?and?Chellappa?proposed?a?sequential?EKF?process?using?inverse?depth?but?this?was?some?way?short?of?full?SLAM?in?its?details.?Images?are?first?processed?pairwise?to?obtain?a?sequence?of?3D?motions?which?are?then?fused?with?an?individual?EKF?per?feature.
?????然而,反轉(zhuǎn)深度圖像沒有被正確的在序列圖像、運(yùn)動(dòng)和結(jié)構(gòu)估計(jì)中融合使用。被應(yīng)用于基于EKF的從已知攝像機(jī)移動(dòng)進(jìn)行序列深度圖像估計(jì)[16],在多基線立體視覺中Okutomi?and?Kanade?[22]使用深度反轉(zhuǎn)圖像去增加場(chǎng)景均勻匹配的魯棒程度。匹配得分?來(lái)自于從多基線收集的(在反轉(zhuǎn)深度中統(tǒng)一參考編碼的)多立體對(duì)。這篇文章聚焦于匹配魯棒性而不是概率不確定性推導(dǎo)/傳播。在?[5]?Chowdhury?and?Chellappa?提出一個(gè)序列EKF過(guò)程(使用反轉(zhuǎn)深度),但這只是SLAM過(guò)程中的一部分。從被首先處理的圖像對(duì)得到一個(gè)3D運(yùn)動(dòng),融合到每個(gè)特征特定的EKF狀態(tài)。
????我們的與位置有關(guān)的反轉(zhuǎn)深度圖像的參數(shù)化(從首先被觀測(cè)到的特征)意味著高斯表達(dá)(必須)是特別地良表現(xiàn)的,這也是為什么在SFM的齊次坐標(biāo)系中的單目SLAM的直接參數(shù)化不能給出一個(gè)好的結(jié)果。這些表示只能有效地表達(dá)(相對(duì)于坐標(biāo)原點(diǎn)的)相對(duì)無(wú)限的點(diǎn)集??梢赃@樣說(shuō)?我們定義的投影主體是獨(dú)立的,但對(duì)于每幀特征是相關(guān)的。另外一個(gè)有趣的對(duì)比是在我們的方法中間,每個(gè)被首先觀測(cè)到的包含相機(jī)位置的特征的表達(dá)和(平滑地/全局SLAM?方法的)所有的/歷史的傳感器的位姿估計(jì)被維持在一個(gè)濾波器中。
????兩個(gè)其他作者最近出版的文章?使用了與我們相似的方法。Trawny?and?Roumeliotis?在?[26]提出一個(gè)非延遲的初始化?為2D單目SLAM?編碼方式為一個(gè)三維點(diǎn)編碼為兩個(gè)投影射線。這種表達(dá)是過(guò)參數(shù)化的但允許非延遲初始化和編碼近距遠(yuǎn)距特征,這個(gè)方法可用于同步驗(yàn)證結(jié)果。
????Eade?and?Drummond?為單目視覺提出了一個(gè)深度反轉(zhuǎn)方法[10]?(使用他們的Fast?SLAM-based?system?的內(nèi)容),給出了一些聲明(關(guān)于我們線性化的優(yōu)勢(shì))。每一個(gè)添加到地圖的新的部分初始化的特征的位置(通過(guò)?相對(duì)于初次觀察到的三坐標(biāo)系(世界坐標(biāo)系)?在各個(gè)方向上進(jìn)行初始化,然后三坐標(biāo)系更新(通過(guò)每一個(gè)地圖粒子的一系列卡爾曼濾波?進(jìn)行更新)。?若是反轉(zhuǎn)深度估計(jì)崩潰/失效,則特征轉(zhuǎn)化為全初始化的標(biāo)準(zhǔn)XYZ表達(dá)。當(dāng)保留的部分特征和全初始化的特征不同時(shí),??使用部分初始化特征(?帶有未知深度信息?)?提高Camera方向和轉(zhuǎn)移估計(jì)(通過(guò)一個(gè)空間向量?更新步驟)。?他們的方法明顯適合?FastSLAM方法的執(zhí)行,然而缺少(類似于我們文章中的)令人滿意的統(tǒng)一/標(biāo)準(zhǔn)?的參數(shù)化方法(的質(zhì)量)——(部分初始化到全部初始化?不需要清晰地固定??所有用法,都是自動(dòng)的且由可觀測(cè)到的測(cè)量信息組成)。
????本文提供了一個(gè)綜合的/廣泛地和擴(kuò)展的視野(相對(duì)于我們前兩篇出版的論文[18]?[7])。我們現(xiàn)在提出一個(gè)全實(shí)時(shí)性的?深度反轉(zhuǎn)參數(shù)化的執(zhí)行過(guò)程,可以達(dá)到50-70個(gè)特征(在臺(tái)式機(jī)上實(shí)時(shí)運(yùn)行時(shí))。實(shí)驗(yàn)驗(yàn)證顯示出精確的相機(jī)標(biāo)定的重要性,可以提高系統(tǒng)表現(xiàn)尤其是對(duì)于廣角攝像機(jī)。我們的結(jié)果章節(jié)?包含了一個(gè)實(shí)時(shí)的實(shí)驗(yàn),包括?閉環(huán)檢測(cè)的(主要結(jié)果)。輸入測(cè)試圖像序列和顯示計(jì)算解決方案的視頻?作為多媒體材料?附加在論文里。
????第二部分專注于定義一個(gè)狀態(tài)向量,包括相機(jī)移動(dòng)模型。XYZ點(diǎn)編碼和反轉(zhuǎn)深度點(diǎn)參數(shù)化,測(cè)量方程在第三部分被描述。第四部分陳述了一個(gè)討論關(guān)于測(cè)量方程的線性誤差。接著,一個(gè)特征的特征初始化細(xì)節(jié)在第五部分。在第六部分陳述反轉(zhuǎn)深度到標(biāo)準(zhǔn)XYZ,在第七部分我們陳述了實(shí)際圖像序列的實(shí)驗(yàn)驗(yàn)證?以30H的頻率(在大范圍環(huán)境中),包括了實(shí)時(shí)實(shí)驗(yàn)和一個(gè)閉環(huán)檢測(cè)實(shí)驗(yàn)。并提供指向視頻的鏈接。最后第八部分全文總結(jié)。
REFERENCES
[1]?V.?J.?Aidala?and?S.?E.?Hammel,?“Utilization?of?modified?polar?coordinates?for?bearing-only?tracking,”?IEEE?Trans.?Autom.?Control,?vol.?28,?no.?3,pp.?283–294,?Mar.?1983.
[2]?T.?Bailey,?“Constrained?initialisation?for?bearing-only?SLAM,”?in?Proc.?IEEE?Int.?Conf.?Robot.?Autom.,?Taipei,?Taiwan,?R.O.C.,?Sep.?14–19,?2003,?vol.?2,?pp.?1966–1971.
[3]?M.?Bryson?and?S.?Sukkarieh,?“Bearing-only?SLAM?for?an?airborne?vehicle,”?presented?at?the?Australasian?Conf.?Robot.?Autom.?(ACRA?2005),Sydney,?Australia.
[4]?G.?C.?Canavos,?Applied?Probability?and?Statistical?Methods.?Boston,?MA:?Little,?Brow,?1984.
[5]?A.?Chowdhury?and?R.?Chellappa,?“Stochastic?approximation?and?ratedistortion?analysis?for?robust?structure?and?motion?estimation,”?Int.?J.?Comput.?Vis.,?vol.?55,?no.?1,?pp.?27–53,?2003.
[6]?J.?Civera,?A.?J.?Davison,?and?J.M.M.Montiel,?“Dimensionless?monocular?SLAM,”?in?Proc.?3rd?Iberian?Conf.?Pattern?Recogn.?Image?Anal.,?2007,?pp.?412–419.
[7]?J.?Civera,?A.?J.?Davison,?and?J.?M.?M.?Montiel,?“Inverse?depth?to?depth?conversion?for?monocular?SLAM,”?in?Proc.?Int.?Conf.?Robot.?Autom.,?2007,?pp.?2778–2783.
[8]?A.?Davison,?“Real-time?simultaneous?localization?and?mapping?with?a?single?camera,”?in?Proc.?Int.?Conf.?Comput.?Vis.,?Oct.?2003,?pp.?1403–?1410.
[9]?A.?J.?Davison,?I.?Reid,?N.Molton,?and?O.?Stasse,?“Real-time?single?camera?SLAM,”?IEEE?Trans.?Pattern?Anal.Mach.?Intell.,?vol.?29,?no.?6,?pp.?1052–?1067,?Jun.?2007.
[10]?E.?Eade?and?T.?Drummond,?“Scalable?monocular?SLAM,”?in?Proc.?IEEE?Conf.?Comput.?Vis.?Pattern?Recogn.?Jun.?17–22,?2006,?vol.?1,?pp.?469–476.
[11]?A.?W.?Fitzgibbon?and?A.?Zisserman,?“Automatic?camera?recovery?for?closed?or?open?image?sequences,”?in?Proc.?Eur.?Conf.?Comput.?Vis.,?Jun.?1998,?pp.?311–326.
[12]?R.?I.?Hartley?and?A.?Zisserman,?Multiple?View?Geometry?in?Computer?Vision,?2nd?ed.?Cambridge,?U.K.:?Cambridge?Univ.?Press,?2004.
[13]?D.?Heeger?and?A.?Jepson,?“Subspace?methods?for?recovering?rigid?motion?I:?Algorithm?and?implementation,”?Int.?J.?Comput.?Vis.,?vol.?7,?no.?2,?pp.?95–117,?Jan.?1992.
[14]?J.?H.?Kim?and?S.?Sukkarieh,?“Airborne?simultaneous?localisation?and?map?building,”?in?Proc.?IEEE?Int.?Conf.?Robot.?Autom.?Sep.?14–19,?2003,?vol.?1,?pp.?406–411.
[15]?N.?Kwok?and?G.?Dissanayake,?“An?efficient?multiple?hypothesis?filter?for?bearing-only?SLAM,”?in?Proc.?IROS,?28?Sep.–2–Oct.?2004,?vol.?1,pp.?736–741.
[16]?L.?Matthies,?T.?Kanade,?and?R.?Szeliski,?“Kalman?filter-based?algorithms?for?estimating?depth?from?image?sequences,”?Int.?J.?Comput.?Vis.,?vol.?3,?no.?3,?pp.?209–238,?1989.
[17]?E.?Mikhail,?J.?Bethel,?and?J.?C.?McGlone,?Introduction?to?Modern?Photogrammetry.New?York:?Wiley,?2001.
[18]?J.?Montiel,?J.?Civera,?and?A.?J.?Davison,?“Unified?inverse?depth?parametrization?for?monocular?SLAM,”?presented?at?the?Robot.?Sci.?Syst.?Conf.,?Philadelphia,?PA,?Aug.?2006.
[19]?J.?Montiel?andA.?J.Davison,?“A?visual?compass?based?on?SLAM,”?in?Proc.?Int.?Conf.?Robot.?Autom.,?Orlando,?FL,May?15–19,?2006,?pp.?1917–1922.
[20]?E.?Mouragnon,?M.?Lhuillier,?M.?Dhome,?F.?Dekeyser,?and?P.?Sayd,?“Realtime?localization?and?3-D?reconstruction,”?in?Proc.?IEEE?Conf.?Comput.?Vis.?Pattern?Recogn.,?2006,?vol.?3,?pp.?1027–1031.
[21]?D.?Nister,?O.?Naroditsky,?and?J.?Bergen,?“Visual?odometry?for?ground?vehicle?applications,”?J.?Field?Robot.,?vol.?23,?no.?1,?pp.?3–26,?2006.
[22]?M.?Okutomi?and?T.?Kanade,?“A?multiple-baseline?stereo,”?IEEE?Trans.?Pattern?Anal.?Mach.?Intell.,?vol.?15,?no.?4,?pp.?353–363,?Apr.?1993.
[23]?M.?Pollefeys,?R.?Koch,?and?L.?Van?Gool,?“Self-calibration?and?metric?reconstruction?inspite?of?varying?and?unknown?intrinsic?camera?parameters,”?Int.?J.?Comput.?Vis.,?vol.?32,?no.?1,?pp.?7–25,?1999.
[24]?J.?Sola,?“Towards?visual?localization,?mapping?and?moving?objects?tracking?by?a?mobile?robot:?A?geometric?and?probabilistic?approach,”?Ph.D.?dissertation,?LAAS-CNRS,?Toulouse,?France,?2007.
[25]?J.?Sola,?A.?Monin,?M.?Devy,?and?T.?Lemaire,?“Undelayed?initialization?in?bearing?only?SLAM,”?in?Proc.?2005?IEEE/RSJ?Int.?Conf.?Intell.?Robots?Syst.,?2–6?Aug.,?2005,?pp.?2499–2504.
[26]?N.?Trawny?and?S.?I.?Roumeliotis,?“A?unified?framework?for?nearby?and?distant?landmarks?in?bearing-only?SLAM,”?in?Proc.?Int.?Conf.?Robot.?Autom.,?May?15–19,?2006,?pp.?1923–1929.
總結(jié)
以上是生活随笔為你收集整理的SLAM: Inverse Depth Parametrization for Monocular SALM的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 微信能查看换头像次数!有人一年换66次
- 下一篇: 使用std::cout不能输出显示