日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

视觉SLAM回环检测、词袋模型和视觉位置识别--论文记录和实验简析

發布時間:2025/3/13 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 视觉SLAM回环检测、词袋模型和视觉位置识别--论文记录和实验简析 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、傳統方法部分(詞袋模型,bag of words,BoW)

1. 預先在環境中采集足夠多的圖像或者所有位置的圖像(成千上萬張圖片)之后構建視覺詞匯表

參考論文:2012年的TRO頂刊

Gálvez-López D, Tardos J D. Bags of binary words for fast place recognition in image sequences[J]. IEEE Transactions on Robotics, 2012, 28(5): 1188-1197.

J. Sivic and A. Zisserman, “Video Google: A text retrieval approach to object matching in videos,” in Proc. IEEE Int. Conf. Comput. Vis., Oct. 2003, vol. 2, pp. 1470–1477 Nister D, Stewenius H. Scalable recognition with a vocabulary tree[C]//2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06). Ieee, 2006, 2: 2161-2168.

Calonder M, Lepetit V, Strecha C, et al. Brief: Binary robust independent elementary features[C]//European conference on computer vision. Springer, Berlin, Heidelberg, 2010: 778-792.

2. 在線構建視覺詞匯表 visual vocabulary

參考論文: 2012年的頂刊

Nicosevici T, Garcia R. Automatic visual bag-of-words for online robot navigation and mapping[J]. IEEE Transactions on Robotics, 2012, 28(4): 886-898.

3. 實踐部分

?網址:DBoW3的代碼GitHub - rmsalinas/DBow3: Improved version of DBow2Improved version of DBow2. Contribute to rmsalinas/DBow3 development by creating an account on GitHub.https://github.com/rmsalinas/DBow3

3.1 代碼下載和安裝

github上下載

命令行模式:

git clone https://github.com/rmsalinas/DBow3.git

之后cd到DBow3目錄分別執行以下命令

mkdir build cd build cmake .. make sudo make install

?3.2? 安裝編譯好之后如何使用?

按照3.1編譯好之后,在DBow3/build/utils目錄下有三個可執行文件。

首先從其他目錄 cd到DBoW目錄,之后執行以下命令

./build/utils/demo_general orb ./images/image0.png images/image1.png images/image2.png

注釋:如果圖片的目錄報錯,則自己在DBow目錄下新建一個目錄名為images 然后把幾張圖片放進去。

之后會看到結果,結果的解析參考以下兩篇博客

深入理解DBOW3算法(一)_sanduan168的博客-CSDN博客_dbow3 github

深入理解DBOW3算法(二)_sanduan168的博客-CSDN博客

3.3 修改代碼

若想修改代碼,則在DBow3/utils/demo_general.cpp文件中修改,? 之后切換到build目錄下,make一下,就可以運行了。? 深入的代碼改動自行研究。

肺炎期間的科研實驗之--0301 詞袋模型DBoW3跳坑!!!!_hongyunzhi92的博客-CSDN博客https://blog.csdn.net/hongyunzhi92/article/details/104717151?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-1.pc_relevant_paycolumn_v3&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-1.pc_relevant_paycolumn_v3&utm_relevant_index=2

3.4 K-means聚類方法案例

k-means算法的實現(算法思想+流程圖+代碼+散點圖+結果輸出)-python_木阿南二三記的博客-CSDN博客_kmeans算法流程圖k-means算法思想:第一步,從文件中讀取數據,點用元組表示,點集用列表表示。第二步,初始化聚類中心。首先獲取數據的長度,然后在range(0,length)這個區間上隨機產生k個不同的值,以此為下標提取出數據點,將它們作為聚類初始中心,產生列表center。第三步,分配數據點。將數據點分配到距離(歐式距離)最短的聚類中心中,產生列表assigment,并計算平均誤差。第四步,如果首...https://blog.csdn.net/qq_43109561/article/details/86430361?spm=1001.2101.3001.6650.5&utm_medium=distribute.pc_relevant.none-task-blog-2~default~BlogCommendFromBaidu~Rate-5.pc_relevant_antiscan_v2&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~BlogCommendFromBaidu~Rate-5.pc_relevant_antiscan_v2&utm_relevant_index=10

4. 網友解析細節

開源詞袋模型DBow3原理&源碼(一)整體結構 - tszs_song - 博客園Bow3源碼與原理https://www.cnblogs.com/zhengmeisong/p/8446687.html回環檢測 - 簡書一、回環檢測的意義 SLAM系統有了前端的視覺里程計,有了后端優化,似乎已經比較好用了。但事情還是沒有我們想象的那么簡單,由于上一篇文章我們剛剛把后端優化做了一次精簡,在提高...https://www.jianshu.com/p/023e5006499d
淺談回環檢測中的詞袋模型(bag of words)_辜鴻銘的博客-CSDN博客_詞袋模型論文淺談回環檢測中的詞袋模型(bag of words)將會從以下四個方面進行展開關于詞袋模型的基本理解算法簡介開源代碼庫DBoW2庫的簡單介紹關于DBoW的一些總結https://blog.csdn.net/qq_24893115/article/details/52629248

【泡泡機器人原創專欄】DBoW3 視覺詞袋模型、視覺字典和圖像數據庫分析圖像數據庫、視覺字典和視覺詞袋向量是SLAM、計算機視覺、3D物體識別和卷積神經網絡圖像處理的重要基礎工具。本文將對開源DBoW3源碼進行深入剖析。https://mp.weixin.qq.com/s?__biz=MzI5MTM1MTQwMw==&mid=2247487947&idx=1&sn=a161d5ba005adabbfef23ee823c3f34b&chksm=ec10afcfdb6726d9460e3992357b93a50fb622a805c785a9322d7cafb6f8d7d0b02494206fbd&mpshare=1&scene=25&srcid=0120tujPrzQBRJvOMRlHZuAr&pass_ticket=DyCv5iDYNGzqu%2FG5eHjGG4I5gZSFV%2B4a6kb08nDUOcc%3D#wechat_redirect

二、基于視覺特征的地圖構建和定位或導航框架(概率等方法)

參考論文:

M. Cummins and P. Newman, “Probabilistic appearance based navigation and loop closing,” in Proc. IEEE Int. Conf. Robot. Autom., Rome, Italy, Apr. 2007, pp. 2042–2048. M. Cummins and P. Newman, “FAB-MAP: Probabilistic localization and mapping in the space of appearance,” Int. J. Robot. Res., vol. 27, no. 6, pp. 647–665, 2008. M. Cummins and P. Newman, “Highly scalable appearance-only slam fab-map 2.0,” in Proc. Robot. Sci. Syst., 2009, pp. 1–8. R. Paul and P. Newman, “FAB-MAP 3D: Topological mapping with spatial? and visual appearance,” in Proc. IEEE Int. Conf. Robot. Autom., 2010, pp. 2649–2656. A. Glover, W. Maddern, M. Milford, and G. Wyeth, “FAB-MAP + RatSLAM: Appearance-based SLAM for multiple times of day,” in Proc. IEEE Int. Conf. Robot. Autom., 2011, pp. 3507–3512.

三、Bag of objects (BoO)擴展閱讀

用環境中的物體作為視覺詞匯,有個問題是環境中特別是很多室內環境或者路段,沒有明顯的物體怎么辦?

參考論文:Wang X, Hu Z, Tao Q, et al. Bayesian place recognition based on bag of objects for intelligent vehicle localisation[J]. IET Intelligent Transport Systems, 2019, 13(11): 1736-1744.

四、深度學習部分(待續)

論文打包下載鏈接:

總結

以上是生活随笔為你收集整理的视觉SLAM回环检测、词袋模型和视觉位置识别--论文记录和实验简析的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。