日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

根据相机外参实现单应矩阵计算的理论与实践

發布時間:2023/11/27 生活经验 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 根据相机外参实现单应矩阵计算的理论与实践 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

論文閱讀模塊將分享點云處理,SLAM,三維視覺,高精地圖相關的文章。公眾號致力于理解三維視覺領域相關內容的干貨分享,歡迎各位加入我,我們一起每天一篇文章閱讀,開啟分享之旅,有興趣的可聯系微信dianyunpcl@163.com。

單應矩陣介紹

單應性在計算機視覺領域是一個非常重要的概念,它在圖像校正、圖像拼接、俯視圖生成,相機位姿估計、視覺SLAM等領域有非常重要的作用。

單應性(Homography)變換是將一幅圖像中的點映射到另一幅圖像中相應點的變換關系:

單應矩陣是一個3x3矩陣,具有8個自由度,通常為歸一化后表達式,其尺度為1。

下面展示了不同類型的變換,但都與兩個平面之間的變換有關。

(1)真實平面和圖像平面

(2)由兩個相機位置拍攝的平面

(3)圍繞其投影軸旋轉的相機采集的圖像進行拼接

所以單應性矩陣主要用來解決兩個問題:

一是表述真實世界中一個平面與對應它圖像的透視變換

二是從通過透視變換實現圖像從一種視圖變換到另外一種視圖

外參求解單應矩陣理論

這里將主要講解以下已知兩個相機的位姿如何實現圖像的拼接,主要公式就是根據外參計算H矩陣。

單應性將兩個平面之間的變換聯系起來,這樣就可以計算出從第二個平面視圖轉到第一個平面視圖下相應相機位移,在已知內外參的情況下有

使用齊次坐標系表達式將三維世界點轉轉到相機坐標系下:

使用矩陣乘法可以輕松地將一圖像幀中表示的點轉換為另一幀圖像中:c1Mo是第一幀的位姿,c2Mo是第二幀的位姿。要將相機1中表示的三維點變換為相機2幀的坐標下,其變換公式為:

以上公式對應的是:同一平面兩個不同相機坐標系的單應矩陣。如果要同一平面計算出兩個圖像間的單應矩陣H,則需要內參,此時左邊乘以K,右邊乘以K的逆矩陣。

為了更好的理解,這里寫了一個demo,并與上述的理論對應(注意這里是將第二幀轉到第一幀的坐標系下)。

Mat cameraMatrix = (Mat_<double>(3, 3) << 700.0, 0.0, 320.0,0.0, 700.0, 240.0,0, 0, 1);
Mat R1 = c1Mo(Range(0, 3), Range(0, 3));
Mat R2 = c2Mo(Range(0, 3), Range(0, 3));//c1Mo * oMc2
Mat?R_2to1?=?R1*R2.t();//同一平面兩個不同相機坐標系的單應矩陣
// [compute-homography]
Mat H = cameraMatrix * R_2to1 * cameraMatrix.inv();//同一平面計算出兩個圖像間的單應矩陣H
H /= H.at<double>(2, 2);//歸一化
cout << "H:\n" << H << endl;

根據求解的單應矩陣實現兩個視圖的拼接實例顯示如下

拼接的結果如下:

warpPerspective(img2, img_stitch, H, Size(img2.cols * 2, img2.rows));Mat half = img_stitch(Rect(0, 0, img1.cols, img1.rows));

完整代碼如下:

void basicPanoramaStitching(const string &img1Path, const string &img2Path)
{Mat img1 = imread("Blender_Suzanne1.jpg");Mat img2 = imread("Blender_Suzanne2.jpg");//! [camera-pose-from-Blender-at-location-1]Mat c1Mo = (Mat_<double>(4, 4) << 0.9659258723258972, 0.2588190734386444, 0.0, 1.5529145002365112,0.08852133899927139, -0.3303661346435547, -0.9396926164627075, -0.10281121730804443,-0.24321036040782928, 0.9076734185218811, -0.342020183801651, 6.130080699920654,0, 0, 0, 1);//! [camera-pose-from-Blender-at-location-1]//! [camera-pose-from-Blender-at-location-2]Mat c2Mo = (Mat_<double>(4, 4) << 0.9659258723258972, -0.2588190734386444, 0.0, -1.5529145002365112,-0.08852133899927139, -0.3303661346435547, -0.9396926164627075, -0.10281121730804443,0.24321036040782928, 0.9076734185218811, -0.342020183801651, 6.130080699920654,0, 0, 0, 1);//! [camera-pose-from-Blender-at-location-2]Mat cameraMatrix = (Mat_<double>(3, 3) << 700.0, 0.0, 320.0,0.0, 700.0, 240.0,0, 0, 1);Mat R1 = c1Mo(Range(0, 3), Range(0, 3));Mat R2 = c2Mo(Range(0, 3), Range(0, 3));//c1Mo * oMc2Mat R_2to1 = R1*R2.t();//! [compute-homography]Mat H = cameraMatrix * R_2to1 * cameraMatrix.inv();H /= H.at<double>(2, 2);cout << "H:\n" << H << endl;//! [compute-homography]//! [stitch]Mat img_stitch;warpPerspective(img2, img_stitch, H, Size(img2.cols * 2, img2.rows));Mat half = img_stitch(Rect(0, 0, img1.cols, img1.rows));img1.copyTo(half);//! [stitch]Mat img_compare;Mat img_space = Mat::zeros(Size(50, img1.rows), CV_8UC3);hconcat(img1, img_space, img_compare);hconcat(img_compare, img2, img_compare);imshow("Compare images", img_compare);imshow("Panorama stitching", img_stitch);waitKey();}

以上是根據外參實現了同一相機不同位姿采集的圖像的拼接,其主要原理主要是根據外參計算出單應性矩陣,將第二幀采集的圖像變換到第一幀視角下的結果,最終實現拼接。這里我想到了前視圖轉換俯視圖的方法,同樣也是變換視角的問題,只是這里的俯視圖的虛擬相機的參數需要自己設置,有時間再更新。

資源

三維點云論文及相關應用分享

【點云論文速讀】基于激光雷達的里程計及3D點云地圖中的定位方法

3D目標檢測:MV3D-Net

三維點云分割綜述(上)

3D-MiniNet: 從點云中學習2D表示以實現快速有效的3D LIDAR語義分割(2020)

win下使用QT添加VTK插件實現點云可視化GUI

JSNet:3D點云的聯合實例和語義分割

大場景三維點云的語義分割綜述

PCL中outofcore模塊---基于核外八叉樹的大規模點云的顯示

基于局部凹凸性進行目標分割

基于三維卷積神經網絡的點云標記

點云的超體素(SuperVoxel)

基于超點圖的大規模點云分割

更多文章可查看:點云學習歷史文章大匯總

SLAM及AR相關分享

【開源方案共享】ORB-SLAM3開源啦!

【論文速讀】AVP-SLAM:自動泊車系統中的語義SLAM

【點云論文速讀】StructSLAM:結構化線特征SLAM

SLAM和AR綜述

常用的3D深度相機

AR設備單目視覺慣導SLAM算法綜述與評價

SLAM綜述(4)激光與視覺融合SLAM

Kimera實時重建的語義SLAM系統

SLAM綜述(3)-視覺與慣導,視覺與深度學習SLAM

易擴展的SLAM框架-OpenVSLAM

高翔:非結構化道路激光SLAM中的挑戰

SLAM綜述之Lidar SLAM

基于魚眼相機的SLAM方法介紹

如果你對本文感興趣,請點擊“原文閱讀”獲取知識星球二維碼,務必按照“姓名+學校/公司+研究方向”備注加入免費知識星球,免費下載pdf文檔,和更多熱愛分享的小伙伴一起交流吧!

以上內容如有錯誤請留言評論,歡迎指正交流。如有侵權,請聯系刪除

掃描二維碼

? ? ? ? ? ? ? ? ? ?關注我們

讓我們一起分享一起學習吧!期待有想法,樂于分享的小伙伴加入免費星球注入愛分享的新鮮活力。分享的主題包含但不限于三維視覺,點云,高精地圖,自動駕駛,以及機器人等相關的領域。

分享及合作:群主微信“920177957”(需要按要求備注) 聯系郵箱:dianyunpcl@163.com,歡迎企業來聯系公眾號展開合作。

點一下“在看”你會更好看耶

總結

以上是生活随笔為你收集整理的根据相机外参实现单应矩阵计算的理论与实践的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。