日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

实车采集的数据重建场景_SIGGRAPH | 多机器人协同三维场景重建

發(fā)布時間:2024/9/3 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 实车采集的数据重建场景_SIGGRAPH | 多机器人协同三维场景重建 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

關(guān)鍵詞:三維重建 機器人

編者按

本文是另一篇北京大學(xué)陳寶權(quán)課題組將在SIGGRAPH 2019宣讀的論文的解讀。

該論文題為《Multi-Robot Collaborative Dense Scene Reconstruction》,由北京大學(xué)客座學(xué)生董思言、周強與國防科技大學(xué)徐凱副教授,以及谷歌和慕尼黑工業(yè)大學(xué)等單位學(xué)者合作,由前沿計算研究中心執(zhí)行主任陳寶權(quán)教授指導(dǎo)完成。

背景

從機器人領(lǐng)域的移動導(dǎo)航、動作規(guī)劃和物體抓取等經(jīng)典問題,到虛擬現(xiàn)實、增強現(xiàn)實和混合現(xiàn)實等圖形技術(shù),都離不開對真實場景的三維建模。隨著近幾年以微軟Kinect、英特爾RealSense等為代表的消費級RGB-D相機的普及,三維重建領(lǐng)域正經(jīng)歷著一場“文藝復(fù)興”。三維重建涉及計算機圖形學(xué)、計算機視覺和機器人等多個領(lǐng)域,旨在采集真實世界中的彩色圖像和深度圖像,并以此重建出真實場景的三維模型。相比于傳統(tǒng)的激光或雷達掃描重建,近幾年RGB-D相機掃描(拍照)的重建算法(如KinectFusion、VoxelHashing)近幾年取得了巨大進展。

VoxelHashing大規(guī)模場景重建

目前的三維重建算法為場景建模帶來了很多便利,但是仍存在很多問題。比如,即使是使用最先進的掃描重建算法,仍然需要訓(xùn)練有素的專業(yè)掃描人員執(zhí)行掃描過程,算法的使用對普通用戶并不友好。這是因為當前實時算法之所以能做到實時響應(yīng),是因為其做了很多假設(shè),例如要求掃描設(shè)備的移動足夠平滑甚至是勻速,要求被掃描物體的表面有明顯的紋理或者幾何特征。因此,普通用戶掃描過程中,經(jīng)常會面臨算法失敗的問題。即使是專業(yè)掃描人員,在掃描過程中需要保持合適的移動速度和掃描朝向,這也是枯燥且繁重的工作。

主動式掃描和場景分析

于是,近年來越來越多使用機器人代替人來做掃描重建的工作問世。從單個物體到室內(nèi)房間,這些工作使用機器人攜帶掃描設(shè)備,根據(jù)重建實時反饋,指導(dǎo)機器人掃描并建模。

相關(guān)工作

陳寶權(quán)老師帶領(lǐng)的Visual Computing and Learning 課題組近幾年發(fā)表了一些使用機器人做主動式掃描和建模的工作。主動式掃描的現(xiàn)有工作在對于單個物體、房間或公寓等場景的掃描都取得了不錯的效果。于是,使用更多機器人進行大規(guī)模場景的掃描重建是一個重要的拓展方向。

主動式掃描和物體識別

群體智能是機器人領(lǐng)域的一個重要研究方向。目前已經(jīng)有一些針對機器人協(xié)同合作的研究工作,大部分這些工作研究重點在于機器人之間的坐標定位和導(dǎo)航。也有一些工作基于貪心策略、MTSP(多旅行商問題)和區(qū)域分割等算法設(shè)計策略指導(dǎo)多個機器人協(xié)同工作,雖然取得了一些進展,但是在場景復(fù)雜、機器人數(shù)量較多情況下其難求解,缺乏靈活性,并沒有達到預(yù)期的效果。

我們的方法

以室內(nèi)大規(guī)模場景的掃描和重建為目標,我們提出了基于最優(yōu)質(zhì)量傳輸理論(Optimal Mass Transport)的多機器人協(xié)同探索并重建未知室內(nèi)場景模型的算法。最優(yōu)質(zhì)量傳輸理論其實大家都不陌生,最經(jīng)典的例子是土豆的供給和需求問題,假設(shè)有若干地區(qū)(下圖藍色)供給土豆,若干地區(qū)(下圖桔色)需求土豆,不同地區(qū)直接運輸土豆的代價不同, 那么如何找出這樣一個規(guī)劃,使得所有需求地區(qū)都能得到滿足其需求的土豆數(shù)量,且總的運輸代價最低,這就是一個簡單的最優(yōu)質(zhì)量傳輸模型。

最優(yōu)質(zhì)量傳輸?shù)睦?/p>

最優(yōu)質(zhì)量傳輸理論就是為了研究這類優(yōu)化問題而提出,其目標是求出兩個分布(或者說集合)之間的映射關(guān)系,使得該映射在給定的度量下代價最低。在機器人掃描重建問題中,我們可以把機器人看作是掃描的供給方,未知環(huán)境看作是掃描的需求方,而機器人實際執(zhí)行掃描任務(wù)所需要的代價(如移動距離)作為映射的度量。以此為基礎(chǔ),我們通過求解最優(yōu)質(zhì)量傳輸,就可以得到機器人和掃描任務(wù)之間的映射,使掃描代價最低。

機器人掃描的最優(yōu)質(zhì)量傳輸

機器人的空間位置分布可以直接作為掃描的供給分布。那么,如何度量未知環(huán)境對掃描的需求分布呢?首先,所有的未知區(qū)域都屬于掃描的需求分布,它們需要得到機器人的掃描和重建。另外,在掃描過程中,對于已掃描和重建的部分區(qū)域,我們沿襲最經(jīng)典的三維重建方法KinectFusion中對掃描重建模型質(zhì)量的評估方式,如果質(zhì)量沒有達到目標,那么我們把這些區(qū)域也加入掃描的需求分布中,這樣我們得到了原始的需求分布。由于掃描任務(wù)受掃描視角的影響,我們進一步推算出能掃描覆蓋需求分布的最佳掃描視角,這些掃描視角也就是接下來機器人的掃描任務(wù),這些掃描視角的空間分布也就是最終的需求分布。

分析重建結(jié)果推算掃描視角作

接下來是對掃描代價度量的研究。如果一個機器人只映射到了需求分布中的一個掃描任務(wù),我們可以簡單地使用機器人到任務(wù)的最優(yōu)路徑長度作為其掃描代價;如果一個機器人映射到了多個掃描任務(wù),那么我們使用機器人與這些任務(wù)構(gòu)成的TSP(旅行商問題)路徑長度作為其代價。這樣,我們就把多機器人掃描問題公式化成為了最優(yōu)質(zhì)量傳輸模型。在求解優(yōu)化目標時,TSP的離散性給我們優(yōu)化問題的求解帶來了困難,于是我們進一步研究目標函數(shù)近似求解的方法,最終使用基于聚類思想的方法求解,得到了不錯的效果。隨著掃描的進行,場景會不斷被探索重建,這個過程中最優(yōu)質(zhì)量傳輸?shù)那蠼庖矔S之更新,直到完整的場景被高質(zhì)量地重建出來。

隨場景更新而重新計算最優(yōu)質(zhì)量傳輸

我們的結(jié)果

我們在模擬器中使用Matterport3D與SUNCG數(shù)據(jù)集對算法進行了測試,取得了不錯的效果。

Matterport3D (上圖) 與 SUNCG (下圖) 數(shù)據(jù)集測試結(jié)果

同時,我們也在五院的幾個房間使用Turtlebot機器人做了真機實驗。下面是我們重建的結(jié)果。

五院幾個房間掃描重建結(jié)果

總結(jié)

我們提出了一種多個機器人協(xié)同掃描的理論和算法。基于最優(yōu)質(zhì)量傳輸理論,使用分而治之的策略,驅(qū)動多個機器人高效地探索掃描室內(nèi)大規(guī)模場景,并重建其三維模型。

?關(guān)于SIGGRAPH?

SIGGRAPH (Special?Interest?Group on Computer?GRAPHics and?Interactive?Techniques) 是計算機領(lǐng)域規(guī)模最大的頂級會議、CCF A類會議,參加人數(shù)達2萬余人,每年收錄百余篇圖形學(xué)相關(guān)的優(yōu)秀論文,是計算機圖形領(lǐng)域集技術(shù)、藝術(shù)與展覽于一體的盛會。SIGGRAPH 2019將于2019年7月28日-8月1日在美國洛杉磯舉行。

圖文 | 董思言

Visual Computing and Learning

其 他 論 文 解 讀

  • SIGGRAPH | 2D人體動作遷移與特征分解(附論文及代碼鏈接)

  • CVPR | 基于級聯(lián)生成式與判別式學(xué)習(xí)的乳腺鉬靶微鈣化檢測

  • CVPR | 智能體張量融合,一種保持空間結(jié)構(gòu)信息的軌跡預(yù)測方法

  • TPAMI | 從虛擬到現(xiàn)實,一種基于強化學(xué)習(xí)的端到端主動目標跟蹤方法

—? ?版權(quán)聲明? —

本微信公眾號所有內(nèi)容,由北京大學(xué)前沿計算研究中心微信自身創(chuàng)作、收集的文字、圖片和音視頻資料,版權(quán)屬北京大學(xué)前沿計算研究中心微信所有;從公開渠道收集、整理及授權(quán)轉(zhuǎn)載的文字、圖片和音視頻資料,版權(quán)屬原作者。本公眾號內(nèi)容原作者如不愿意在本號刊登內(nèi)容,請及時通知本號,予以刪除。

總結(jié)

以上是生活随笔為你收集整理的实车采集的数据重建场景_SIGGRAPH | 多机器人协同三维场景重建的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。