Paper之IEEERSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议RSJ智能机器人与系统国际会议机器人技术:科学与系统机器人学报)历年最佳论文简介及其解读
Paper之IEEE&RSJ:2009年~2019年機器人技術(shù)(IEEE機器人和自動化國際會議&RSJ智能機器人與系統(tǒng)國際會議&機器人技術(shù):科學(xué)與系統(tǒng)&機器人學(xué)報)歷年最佳論文簡介及其解讀
?
?
?
目錄
會議期刊來源
論文介紹
Robotic Pick and Place of Novel Objects in Clutter with Multi Affordance Grasping and Cross Domain Image Matching通過多 affordance 抓取和跨域圖像匹配完成雜亂環(huán)境下對新物體的撿放操作
Using Simulation and Domain Adaptation to Improve Efficiency of Deep Robotic Grasping使用仿真和領(lǐng)域適應(yīng)來提高深度機器人抓取的效率
Dex Net 2.0: Deep Learning to Plan Robust Grasps with Synthetic Point ?Clouds and Analytic Grasp Metrics ?Dex-Net 2.0:利用合成點云進行魯棒抓取和分析抓取指標(biāo)的深度學(xué)習(xí)
Deep Predictive Policy Training using Reinforcement Learning深度預(yù)測策略的強化學(xué)習(xí)訓(xùn)練方法 ?
Learning Agile and Dynamic Motor Skills for Legged Robots ?面向腿式機器人的敏捷動態(tài)特性的技能學(xué)習(xí) ?
Making Sense of Vision and Touch: Self Supervised Learning of ?Multimodal Representations for Contact Rich Tasks ?理解視覺和觸覺:接觸任務(wù)多模態(tài)表達的自監(jiān)督學(xué)習(xí) ?
A Magnetically Actuated Untethered Jellyfish Inspired Soft ?Milliswimmer ?一個受水母啟發(fā)的磁力驅(qū)動軟體游泳機器人 ?
Robust Visual-Inertial State Estimation with Multiple Odometries and Efficient Mapping on an MAV with Ultra-Wide FOV Stereo Vision魯棒多測度視覺慣性狀態(tài)估計及其在具有超廣角立體視覺的微型飛行器上的高效映射
?
?
相關(guān)文章
AI之Robot:機器人Robot的簡介、發(fā)展歷史、案例應(yīng)用之詳細攻略
Paper之IEEE&RSJ:2009年~2019年機器人技術(shù)(IEEE機器人和自動化國際會議&RSJ智能機器人與系統(tǒng)國際會議&機器人技術(shù):科學(xué)與系統(tǒng)&機器人學(xué)報)歷年最佳論文簡介及其解讀
?
會議期刊來源
| IEEE International Conference on Robotics and Automation | IEEE機器人和自動化國際會議 |
| IEEE/RSJ International Conference on Intelligent Robots and Systems | IEEE/RSJ智能機器人與系統(tǒng)國際會議 |
| Robotics: Science and Systems·A Robotics Conference | 機器人技術(shù):科學(xué)與系統(tǒng)·機器人技術(shù)會議 |
| IEEE Transactions on Robotics | IEEE機器人學(xué)報 |
?
?
論文介紹
Robotic Pick and Place of Novel Objects in Clutter with Multi Affordance Grasping and Cross Domain Image Matching
通過多 affordance 抓取和跨域圖像匹配完成雜亂環(huán)境下對新物體的撿放操作
| 論文作者 | Andy Zeng, Shuran Song, Kuan-Ting Yu, Elliott Donlon, Francois R. Hogan, Maria Bauza, Daolin Ma, Orion Taylor, Melody Liu, Eudald Romo, Nima Fazeli, Ferran Alet, Nikhil Chavan Dafle, Rachel Holladay, Isabella Morona, Prem Qu Nair, Druck Green, Ian Taylor, Weber Liu, Thomas Funkhouser, Alberto Rodriguez |
| 論文地址 | IEEE International Conference on Robotics and Automation, 2018 https://ieeexplore.ieee.org/abstract/document/8461044 |
| 論文摘要 | 本文介紹了一種在雜亂環(huán)境中能夠抓取和識別已知和新奇物體的機器人拾取和放置系統(tǒng)。該系統(tǒng)的關(guān)鍵新特性是,它可以處理廣泛的對象類別,而不需要針對新對象的任何特定于任務(wù)的訓(xùn)練數(shù)據(jù)。為了實現(xiàn)這一目標(biāo),首先使用一種不確定類別的啟示預(yù)測算法在四種不同抓取原語行為中進行選擇。然后,它通過一個跨域圖像分類框架來識別選中的對象,該框架將觀察到的圖像與產(chǎn)品圖像相匹配。由于產(chǎn)品圖像可以很容易地用于廣泛的對象(例如,從web上),因此該系統(tǒng)可以開箱即用地用于新對象,而不需要任何額外的訓(xùn)練數(shù)據(jù)。詳盡的實驗結(jié)果表明,我們的多啟示抓取算法對雜波中各種各樣的目標(biāo)都有較高的成功率,我們的識別算法對已知和新抓取的目標(biāo)都有較高的準(zhǔn)確率。這種方法是麻省理工-普林斯頓團隊系統(tǒng)的一部分,該系統(tǒng)在2017年亞馬遜機器人挑戰(zhàn)賽的裝載任務(wù)中獲得了第一名。所有代碼、數(shù)據(jù)集和預(yù)先訓(xùn)練的模型都可以在http://arc.cs.princeton.edu上在線獲得 |
| 研究問題 | 人類可以在僅掌握少量先驗知識的前提下識別和抓取陌生目標(biāo)物,這一能力 ?一直是機器人研究的靈感來源,也是很多實際應(yīng)用的核心。為此,提出一種能在 ?雜亂環(huán)境下對新目標(biāo)物進行識別和撿放操作的機器人系統(tǒng),整個系統(tǒng)可直接用于 ?新目標(biāo)物(在測試過程中首次出現(xiàn)),而無需額外的數(shù)據(jù)收集或重新訓(xùn)練,如下 ?圖所示。 |
| 研究方法 | 專門設(shè)計該機器人識別撿放系統(tǒng),該系統(tǒng)由兩部分組成:1)具有四個基礎(chǔ) ?行為的多模式抓取框架,該框架使用深度卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)來預(yù)測場景 ?affordance,而無需事先對目標(biāo)物進行分割和分類。2)跨域圖像匹配框架,用于 ?通過將抓取的對象與產(chǎn)品圖像進行匹配來識別抓取的對象,該框架使用了 ?ConvNet 架構(gòu),該架構(gòu)可直接用于新目標(biāo)物而無需重新進行訓(xùn)練。這兩部分互相 ?配合,可以在雜亂的環(huán)境中完成對新目標(biāo)物的抓取操作。 ? 新物體的識別框架如下圖所示。訓(xùn)練一個雙流的卷積神經(jīng)網(wǎng)絡(luò),其中一個流 ?計算得到產(chǎn)品圖像的 2048 維特征向量,而另一個流計算得到觀察圖像的 2048 維 ?特征向量,并對兩個流進行優(yōu)化,以使相同圖像的特征更加相似,反之則不同。 ?在測試期間,已知對象和新對象的圖像都映射到公共特征空間上。通過在相同的 ?特征空間找到與其最近的特征來匹配來識別它們。 |
| 研究結(jié)果 | 提出一種系統(tǒng),該系統(tǒng)能夠以很少的先驗信息(少數(shù)產(chǎn)品圖片)來拾取和識 ?別新對象。該系統(tǒng)首先使用與類別無關(guān)的 affordance 預(yù)測算法在四種不同的抓取 ?動作元之間進行選擇,然后通過將抓取的對象與它們的產(chǎn)品圖像進行匹配來識別 ?抓取的對象。通過評估證明,該機器人系統(tǒng)可以拾取并在雜亂無章的環(huán)境中識別 ?出新物體。 |
?
?
?
Using Simulation and Domain Adaptation to Improve Efficiency of Deep Robotic Grasping
使用仿真和領(lǐng)域適應(yīng)來提高深度機器人抓取的效率
| 論文作者 | Konstantinos Bousmalis, Alex Irpan, Paul Wohlhart, Yunfei Bai, Matthew ?Kelcey, Mrinal Kalakrishnan, Laura Downs, Julian Ibarz, Peter Pastor, Kurt Konolige, ?Sergey Levine, Vincent Vanhoucke |
| 論文地址 | 論文出處:IEEE International Conference on Robotics and Automation, 2018 論文地址:https://ieeexplore.ieee.org/document/8460875 |
| 論文摘要 | 檢測和收集帶注釋的視覺抓取數(shù)據(jù)集來訓(xùn)練現(xiàn)代機器學(xué)習(xí)算法是非常耗時和昂貴的。一種吸引人的替代方法是使用現(xiàn)成的模擬器來呈現(xiàn)合成數(shù)據(jù),并為其自動生成底層真值注釋。不幸的是,單純根據(jù)模擬數(shù)據(jù)訓(xùn)練的模型常常不能推廣到現(xiàn)實世界。我們研究如何將隨機模擬環(huán)境和領(lǐng)域適應(yīng)方法擴展到訓(xùn)練抓取系統(tǒng)從原始單眼RGB圖像中抓取新的目標(biāo)。我們對我們的方法進行了廣泛的評估,總共有超過25000個物理測試掌握,研究了一系列的模擬條件和領(lǐng)域適應(yīng)方法,包括一種新的擴展的像素級領(lǐng)域適應(yīng),我們稱之為GraspGAN。我們表明,通過使用合成數(shù)據(jù)和領(lǐng)域適應(yīng),我們能夠?qū)崿F(xiàn)給定性能水平所需的真實世界樣本數(shù)量減少50倍,只使用隨機生成的模擬對象。我們還表明,僅使用未標(biāo)記的真實世界數(shù)據(jù)和我們的GraspGAN方法,我們獲得了真實世界中沒有任何標(biāo)簽的抓取性能,與939,777個標(biāo)記的真實世界樣本的抓取性能相似。 |
| 研究問題 | 收集帶注釋的視覺抓取數(shù)據(jù)集以訓(xùn)練現(xiàn)代機器學(xué)習(xí)算法可能是非常耗時的。 ?一個替代方法是使用現(xiàn)成的模擬器來合成數(shù)據(jù),這樣就可以自動產(chǎn)生這些數(shù)據(jù)的 ?真實標(biāo)注。不幸的是,僅基于模擬數(shù)據(jù)訓(xùn)練的模型通常無法泛化到現(xiàn)實世界。研 ?究如何將隨機模擬環(huán)境和域適應(yīng)方法應(yīng)用到真實場景,訓(xùn)練一種抓取系統(tǒng),可以 ?通過原始 RGB 圖像中進行規(guī)劃,抓取新的目標(biāo)物。 |
| 研究方法 | 研究模擬環(huán)境中的 3D 目標(biāo)模型、模擬的場景和模擬的動力學(xué)如何影響機器 ?人最終的抓取性能,以及將模擬與真實場景集成以實現(xiàn)最大程度的遷移。具體方 ?法如上圖所示。 ? |
| 研究結(jié)果 | 研究將模擬數(shù)據(jù)合并到基于學(xué)習(xí)的抓取系統(tǒng)中的方法,以提高抓取性能并減 ?少數(shù)據(jù)需求。通過使用合成數(shù)據(jù)和域適應(yīng),僅使用少量隨機生成的模擬數(shù)據(jù),就 ?可以達到給定性指標(biāo)的 50 倍。還表明,僅使用未標(biāo)注的真實數(shù)據(jù)和 GraspGAN ?的方法,就可以在沒有任何真實數(shù)據(jù)標(biāo)注的情況下獲得與真實世界相同的抓取性 ?能。 |
?
?
?
Dex Net 2.0: Deep Learning to Plan Robust Grasps with Synthetic Point ?Clouds and Analytic Grasp Metrics ?
Dex-Net 2.0:利用合成點云進行魯棒抓取和分析抓取指標(biāo)的深度學(xué)習(xí)
| 論文作者 | Bohg Jeffrey Mahler, Jacky Liang, Sherdil Niyaz, Michael Laskey, Richard ?Doan, Xinyu Liu, Juan Aparicio Ojea, and Ken Goldberg ? |
| 論文地址 | 論文出處:Robotics: Science and Systems, 2017 ? 論文地址:https://arxiv.org/pdf/1703.09312.pdf |
| 論文摘要 | 為了減少對健壯機器人抓取計劃進行深度學(xué)習(xí)的數(shù)據(jù)收集時間,我們研究了從Dex-Net 1.0中數(shù)以千計的3D模型生成的670萬點云、抓取和分析抓取指標(biāo)的合成數(shù)據(jù)集進行的隨機擺拍訓(xùn)練。我們使用得到的數(shù)據(jù)集dx - net 2.0來訓(xùn)練一個抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò)(GQ-CNN)模型,該模型可以快速預(yù)測從深度圖像抓取成功的概率,其中抓取指定為相對于RGB-D傳感器的爪的平面位置、角度和深度。實驗了1000次試驗在ABB弓比較掌握規(guī)劃方法扣帶回對象表明GQ-CNN訓(xùn)練只有合成數(shù)據(jù)從Dex-Net 2.0可以用來計劃掌握在0.8秒93%的成功率與敵對的幾何和8個已知的對象是3倍的速度比注冊點云的預(yù)先計算的數(shù)據(jù)集和索引把握對象。Dex-Net 2.0抓取計劃在包含10個新剛性對象的數(shù)據(jù)集上也擁有最高的成功率,在包含40個新家居對象的數(shù)據(jù)集上實現(xiàn)了99%的精度(69個抓取中有一個假陽性被歸類為魯棒),其中一些對象是鉸接的或可變形的。代碼、數(shù)據(jù)集、視頻和補充材料可以在http://berkeleyautomation.github找到 |
| 研究問題 | 為了減少采用深度學(xué)習(xí)進行魯棒機器人抓取策略學(xué)習(xí)所需的數(shù)據(jù)收集時間, ?探索了從 670 萬點云,抓取姿態(tài)和抓取指標(biāo)的合成數(shù)據(jù)集進行訓(xùn)練,這些數(shù)據(jù)是 ?從 Dex Net 1.0 的數(shù)千個三維模型中以隨機姿勢在桌子上生成的。利用得到的數(shù)據(jù)集 Dex-Net 2.0 訓(xùn)練抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò)(GQ-CNN)模型,該模型可快速 ?從深度圖像預(yù)測抓取成功的概率,其中抓取被指定為相對于 RGB-D 傳感器的夾 ?持器的平面位置、角度和深度。 |
| 研究方法 | 研究基于深度點云的處于桌面上的單剛體的平行爪抓取規(guī)劃問題。學(xué)習(xí)一個 ?函數(shù),它以一個候選抓取和一個深度圖像作為輸入,并輸出一個魯棒性的估計值, ?或者在傳感和控制的不確定性下的成功概率。 ? Dex Net 2.0 的架構(gòu)如下圖所示。GQ-CNN 是抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò),它是 ?經(jīng)離線訓(xùn)練的,使用由 670 萬個合成點云、相關(guān)魯棒抓取指標(biāo)的數(shù)據(jù)集 Dex-Net ?1.0 數(shù)據(jù)集,可從深度圖像預(yù)測魯棒候選抓取。當(dāng)一個物體呈現(xiàn)給機器人時,深 ?度相機會返回一個三維點云,識別出一組幾百個候選抓取點。GQ-CNN 迅速確定 ?了最穩(wěn)健的抓取位姿,并由 ABB YuMi 機器人執(zhí)行操作。 |
| 研究結(jié)果 | 開發(fā)了一個抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò)(GQ-CNN)體系結(jié)構(gòu),它可以預(yù)測基于 ?點云模型抓取的穩(wěn)定性,并在 Dex-2.0 數(shù)據(jù)集上對其進行訓(xùn)練,它是一個包含 670 ?萬點云、平行抓取和穩(wěn)定性抓指標(biāo)的數(shù)據(jù)集。在 1000 多個物理評估中,發(fā)現(xiàn) DexNet ?2.0 抓取規(guī)劃器是一種可靠的、速度比基于點云配準(zhǔn)方法快 3 倍的,并且在 ?40 個新目標(biāo)的測試集上具有 99%的精度的抓取規(guī)劃器。 |
?
?
?
?
Deep Predictive Policy Training using Reinforcement Learning
深度預(yù)測策略的強化學(xué)習(xí)訓(xùn)練方法 ?
| 論文作者 | Ali Ghadirzadeh, Atsuto Maki, Danica Kragic and Marten Bjorkman. |
| 論文地址 | 論文出處:Robotics: Science and Systems,2019 ? 論文地址:https://arxiv.org/pdf/1903.11239.pdf |
| 論文摘要 | 由于感知運動過程的內(nèi)在潛伏期,熟練的機器人任務(wù)學(xué)習(xí)最好通過預(yù)測動作策略來實現(xiàn)。然而,訓(xùn)練這樣的預(yù)測策略是具有挑戰(zhàn)性的,因為它需要找到整個動作持續(xù)期間的運動激活軌跡。我們提出了一個數(shù)據(jù)高效的深度預(yù)測策略訓(xùn)練(DPPT)框架,該框架采用深度神經(jīng)網(wǎng)絡(luò)策略架構(gòu),將圖像觀察映射到一系列的運動激活。該體系結(jié)構(gòu)由三個子網(wǎng)絡(luò)組成,它們被稱為感知、策略和行為的超層。感知超層和行為超層分別強制提取用合成和模擬訓(xùn)練樣本訓(xùn)練的視覺和運動數(shù)據(jù)。策略超層是一個具有更少參數(shù)的小子網(wǎng)絡(luò),用于映射抽象流形之間的數(shù)據(jù)。利用策略搜索強化學(xué)習(xí)的方法對每一個任務(wù)進行訓(xùn)練。我們通過訓(xùn)練PR2機器人熟練抓取物體和投擲球的預(yù)測策略來證明所提出架構(gòu)和學(xué)習(xí)框架的適用性。該方法的有效性證明,這些任務(wù)訓(xùn)練僅使用約180個真實的機器人嘗試定性終端獎勵。 |
| 研究問題 | 由于感知運動過程的固有延遲,機器人任務(wù)學(xué)習(xí)最好通過預(yù)測動作策略來實 ?現(xiàn)。然而,訓(xùn)練這樣的預(yù)測策略是具有挑戰(zhàn)性的,因為它涉及到在整個動作過程 ?中找到運動激活的軌跡。本文中,提出一個基于深度神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)高效深度預(yù) ?測策略訓(xùn)練(DPPT)框架,將圖像觀測映射到一系列的運動激活。該體系結(jié)構(gòu) ?由三個子網(wǎng)絡(luò)組成,分別稱為感知層、策略層和行為層。感知層和行為層迫使我 ?們對視覺和行為進行抽象分別用合成訓(xùn)練樣本和模擬訓(xùn)練樣本訓(xùn)練數(shù)據(jù)。策略層 ?是一個較小的子網(wǎng)絡(luò),具有較少的參數(shù)來映射抽象流形之間的數(shù)據(jù)。使用策略搜 ?索強化學(xué)習(xí)的方法對每個任務(wù)進行訓(xùn)練。通過在 PR2 機器人上訓(xùn)練熟練抓取和 ?投球的預(yù)測策略。下圖表示在機器人拋擲 ball 過程的瞬間圖。 |
| 研究方法 | 由感知層、策略層和行為層組成的深度預(yù)測策略體系結(jié)構(gòu)如下圖所示。作為 ?網(wǎng)絡(luò)輸入,給出了一個中心 RGB 圖像。感知層將圖像數(shù)據(jù)抽象為與任務(wù)相關(guān)的 ?對象對應(yīng)的若干空間位置。策略層將抽象狀態(tài)隨機映射到操作流形中的一個點。 ?最后,針對給定的采樣動作,行為層生成一長軌跡的電機指令,并應(yīng)用于機器人 ?連續(xù) T 個時間步長。 |
| 研究結(jié)果 | 文章證明了所提出的結(jié)構(gòu)和學(xué)習(xí)框架的適用性。該方法的有效性通過以下事 ?實得到了證明:這些任務(wù)僅使用 180 次真正的機器人進行訓(xùn)練,并提供定性的最 ?終獎勵。 |
?
?
?
?
Learning Agile and Dynamic Motor Skills for Legged Robots ?
面向腿式機器人的敏捷動態(tài)特性的技能學(xué)習(xí) ?
| 論文作者 | Jemin Hwangbo, Joonho Lee, Alexey Dosovitskiy, Dario Bellicoso, ?Hoonho Lee, Vassilios Tsounis, Vladlen Koltun and Marco Hutter. ? |
| 論文地址 | 論文出處:Science Robotics, 2019 ? 論文地址:https://arxiv.org/pdf/1901.08652.pdf |
| 論文摘要 | 有腿機器人是機器人領(lǐng)域最大的挑戰(zhàn)之一。動物的動態(tài)和敏捷的動作是無法用現(xiàn)有的方法模仿的,而現(xiàn)有的方法是由人類制作的。一個引人注目的替代方案是強化學(xué)習(xí),它需要最少的工藝,并促進控制策略的自然進化。然而,到目前為止,對有腿機器人的強化學(xué)習(xí)研究主要局限于仿真,在實際系統(tǒng)中部署的例子很少,而且比較簡單。主要原因是,用真正的機器人訓(xùn)練,尤其是動態(tài)平衡系統(tǒng),是復(fù)雜和昂貴的。在目前的工作中,我們介紹了一種方法來訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)策略在模擬和轉(zhuǎn)移到一個最先進的腿系統(tǒng),從而利用快速,自動化,和經(jīng)濟有效的數(shù)據(jù)生成方案。該方法被應(yīng)用于ANYmal機器人,一個成熟的中型狗大小的四足系統(tǒng)。通過使用模擬訓(xùn)練的策略,四足機器人可以獲得比以往方法更好的運動技能:ANYmal能夠精確且高效地執(zhí)行高水平的身體速度指令,比以前跑得更快,即使在復(fù)雜的配置下也能從墜落中恢復(fù)過來。 |
| 研究問題 | 近年來,腿式機器人是機器人技術(shù)中最大的挑戰(zhàn)之一。動物的動態(tài)和敏捷的 ?動作是現(xiàn)有的方法無法模仿的,而這些方法是由人類精心設(shè)計的。一個令人信服 ?的替代方案是強化學(xué)習(xí),它需要最少的技能并促使控制策略的自然演化更新。然 ?而,到目前為止,對腿式機器人的強化學(xué)習(xí)研究主要局限于仿真,在實際系統(tǒng)中 ?應(yīng)用比較簡單的例子較少。主要原因是,使用真正的機器人進行訓(xùn)練,尤其是使 ?用動態(tài)平衡系統(tǒng),既復(fù)雜又昂貴。在本論文中,我們提供了一種新的方法,在模 ?擬中訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)策略,并將其遷移到一個最先進的腿系統(tǒng),因此我們利用 ?快速、自動化和經(jīng)濟有效的數(shù)據(jù)生成方案。 |
| 研究方法 | 對于腿式機器人的敏捷動態(tài)性技能學(xué)習(xí)的過程,首先是系統(tǒng)建模,針對于四 ?足機器人的物理參數(shù)的辨識以及確定機器人動態(tài)參數(shù)的不確定性指標(biāo),這個過程 ?可能需要環(huán)境參數(shù)估計,物理動態(tài)性能估計等;其次是訓(xùn)練驅(qū)動神經(jīng)網(wǎng)絡(luò),這個 ?過程一般通過構(gòu)建機器人狀態(tài)到機器人電機控制的映射函數(shù)實現(xiàn),隨著深度神經(jīng) ?網(wǎng)絡(luò)的廣泛認可,這樣的非線性映射函數(shù)現(xiàn)大多采用深度神經(jīng)網(wǎng)絡(luò)擬合;然后在 ?仿真中完成基于強化學(xué)習(xí)的驅(qū)動神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程,最后將訓(xùn)練好的驅(qū)動神經(jīng) ?網(wǎng)絡(luò)擬合的控制策略應(yīng)用在實際的系統(tǒng)中。 整個系統(tǒng)的控制網(wǎng)絡(luò)由三部分構(gòu)成,首先是策略網(wǎng)絡(luò),用于將當(dāng)前的觀測量 ?和之前的關(guān)節(jié)狀態(tài)量映射到目標(biāo)關(guān)節(jié)量(下一時刻關(guān)節(jié)控制量),然后是驅(qū)動網(wǎng) ?絡(luò),用于在剛體關(guān)節(jié)控制中將歷史關(guān)節(jié)狀態(tài)映射到關(guān)節(jié)力矩控制量上,機器人狀 ?態(tài)量有各關(guān)節(jié)的位置信息 q 與速度信息 u。 |
| 研究結(jié)果 | 應(yīng)用于一個復(fù)雜的中型犬大小的四足系統(tǒng) ANYmal 機器人,使得在模擬中 ?訓(xùn)練的四足機器人的運動策略超越了以前的方法,ANYmal 能夠精確和高效地遵 ?循高水平的身體速度指令,比以前跑得更快,甚至在復(fù)雜的配置中也能從跌倒中 ?恢復(fù)過來。 |
?
?
?
?
Making Sense of Vision and Touch: Self Supervised Learning of ?Multimodal Representations for Contact Rich Tasks ?
理解視覺和觸覺:接觸任務(wù)多模態(tài)表達的自監(jiān)督學(xué)習(xí) ?
| 論文作者 | Michelle A. Lee, Yuke Zhu, Krishnan Srinivasan, Parth Shah, Silvio ?Savarese, Li Fei-Fei, Animesh Garg, and Jeannette Bohg ? |
| 論文地址 | 論文出處:IEEE International Conference on Robotics and Automation,2019 ? 論文地址:https://ieeexplore.ieee.org/abstract/document/8793485 |
| 論文摘要 | 在非結(jié)構(gòu)化環(huán)境中,接觸豐富的操作任務(wù)通常需要觸覺和視覺反饋。要手動設(shè)計一個結(jié)合了這些不同特點的模式的機器人控制器并非易事。雖然深度強化學(xué)習(xí)在學(xué)習(xí)高維輸入的控制策略方面顯示出了成功,但由于樣本的復(fù)雜性,這些算法通常難以直接在真實機器人上訓(xùn)練。在本文中,我們使用自我監(jiān)督來學(xué)習(xí)我們的感覺輸入的一個緊湊的多模態(tài)表示,然后可以用來提高我們的策略學(xué)習(xí)的樣本效率。在peg插入任務(wù)上評估我們的方法,我們表明,它在不同的幾何、配置和間隙上得到了推廣,同時對外部擾動具有魯棒性。我們也系統(tǒng)地研究了不同的自我監(jiān)督學(xué)習(xí)目標(biāo)和表現(xiàn)學(xué)習(xí)架構(gòu)。給出了仿真結(jié)果和實際機器人的仿真結(jié)果。 |
| 研究問題 | 非結(jié)構(gòu)化環(huán)境中需要接觸的操作任務(wù)通常需要觸覺和視覺反饋。但是,人工 ?設(shè)計融合各個不同模態(tài)的機器人控制器并非易事。盡管深度強化學(xué)習(xí)已經(jīng)成功地 ?應(yīng)用于針對高維輸入的控制策略學(xué)習(xí),但由于樣本復(fù)雜性,這些算法通常難以部 ?署在實際的機器人上。提出使用自監(jiān)督來學(xué)習(xí)感官輸入的緊湊和多模態(tài)表示,以 ?用來提高策略學(xué)習(xí)的樣本效率。 |
| 研究方法 | 以學(xué)習(xí)機器人執(zhí)行需要接觸操作任務(wù)的策略為目標(biāo)。希望評估融合多傳感器 ?信息的價值以及多模態(tài)表示在跨任務(wù)傳遞的能力。為了提高樣本效率,首先學(xué)習(xí) ?了基于神經(jīng)網(wǎng)絡(luò)的多傳感器數(shù)據(jù)特征表示。得到的壓縮特征向量用作通過強化學(xué) ?習(xí)學(xué)習(xí)到的策略的輸入。 ? 我們將具有接觸的操作作為一個無模型強化學(xué)習(xí)問題,研究它在依賴多模態(tài) ?反饋以及在幾何、間隙和構(gòu)型不確定的情況下的性能。由于選擇無模型,還消除 ?了對精確動力學(xué)模型的需要,這是存在接觸的操作中的典型困難。 |
| 研究結(jié)果 | ?提出了一種新穎的模型,將異構(gòu)感官輸入編碼為多模態(tài)表示。一旦經(jīng)過訓(xùn)練, ?當(dāng)用作用于強化學(xué)習(xí)的淺層神經(jīng)網(wǎng)絡(luò)策略的輸入時,該表示就保持固定。通過自 ?我監(jiān)督來訓(xùn)練表示模型,從而無需手動標(biāo)注。實驗表明,需要接觸的任務(wù)需要視 ?覺和觸覺的多模式反饋,此外,還進一步證明了多模態(tài)表示可以很好地遷移到其 ?他新任務(wù)中。 |
?
?
?
?
A Magnetically Actuated Untethered Jellyfish Inspired Soft ?Milliswimmer ?
一個受水母啟發(fā)的磁力驅(qū)動軟體游泳機器人 ?
| 論文作者 | Ziyu Ren , Tianlu Wang,Wenqi Hu , and Metin Sitti |
| 論文地址 | 論文出處:Robotics: Science and Systems, 2019 論文地址:http://www.roboticsproceedings.org/rss15/p13.pdf |
| 論文摘要 | 無栓小型軟機器人可以潛在地用于醫(yī)療保健和生物醫(yī)學(xué)應(yīng)用程序。它們可以進入小的空間,以可編程的方式重塑它們的身體,以適應(yīng)非結(jié)構(gòu)化的環(huán)境,并具有多樣的動態(tài)行為。然而,目前的微型軟機器人功能有限,限制了其在醫(yī)療領(lǐng)域的應(yīng)用。利用磁軟復(fù)合材料的形狀可編程能力,我們提出了一種無拴軟微機器人(jellyfishbot),它可以像水母一樣游泳,通過時間和軌跡的不對稱上下拍打它的下垂。它的游動速度和方向可以通過調(diào)節(jié)外部振蕩磁場的大小、頻率和方向來控制。我們演示了這種水母機器人可以執(zhí)行多項對醫(yī)療應(yīng)用有用的任務(wù),例如運送藥物、堵塞狹窄的管道或血管,以及在基于超聲成像的指導(dǎo)下修補目標(biāo)區(qū)域。在本文中介紹的毫微機器人可以用于完全充滿液體的器官,如膀胱或充氣的胃。 |
| 研究問題 | 不受限制的小型軟機器人可以用于醫(yī)療和生物醫(yī)學(xué)應(yīng)用。他們可以進入狹小 ?空間并以可編程方式改變形狀,以適應(yīng)非結(jié)構(gòu)化環(huán)境并具有多種動態(tài)行為。但是, ?當(dāng)前的微型軟機器人的功能有限,從而限制了它們在醫(yī)療中的應(yīng)用。利用磁性軟 ?復(fù)合材料形狀可編程的優(yōu)勢,提出一種不受束縛的軟體機器人,它可以像水母一 ?樣在時間和軌跡上不對稱地上下跳動,可以通過調(diào)節(jié)外部振蕩磁場的大小,頻率 ?和方向來控制其游泳速度和方向。 |
| 研究方法 | 該機器人的設(shè)計如上圖所示,機器人主體由兩部分組成:主動部分像肌肉一 ?樣工作以實現(xiàn)劃槳運動,而被動部分則填充了主動部分的間隙,使身體成為連續(xù) ?的流體動力表面。身體的主動部分由軟磁性材料制成,可在外部 B 場下變形。通 ?過將釹鐵硼(NdFeB)磁性微粒(MQP-15-7,Magnequench;平均直徑:5μm) ?與聚合物(Ecoflex 00-10,Smooth-On Inc.)混合來制備材料,質(zhì)量比為 1:1。將該混合物澆鑄到涂覆有聚對二甲苯-C 的聚合物(甲基丙烯酸甲酯)(PMMA)板 ?上。聚合物在 60°C 固化形成厚度約為 96μm 的薄膜(下圖 b-i)。使用激光切 ?割機從該薄膜上切出主動部分的幾何形狀(下圖 b-ii)。從平板上移開主動部分 ?后,使用移液器將水滴滴在其上?;钚圆糠挚梢粤⒓窗尾⒃诒砻鎻埩ψ饔??下形成橢圓形(下圖 b-iii)。然后將有效成分放入冰箱進行冷凍,以保持橢圓形 ?的形狀。橢圓形主動部分在振動樣品磁力計(VSM,EZ7,Microsense)內(nèi)部被 ?1.8T 均勻磁場磁化。磁化后,用非磁性彈性體(Ecoflex 00-10)填充主動部分的 ?間隙以形成厚度約為 20μm 的薄層薄膜(下圖 b-iv)。最終機器人如下圖 a-ii 所 ?示。 |
| 研究結(jié)果 | 提出了一種使用磁性軟復(fù)合材料制作的軟體游泳機器人。只需調(diào)節(jié)外部磁場 ?的波形,頻率和振蕩方向即可實現(xiàn)對其控制。已經(jīng)進行了初步研究以發(fā)現(xiàn)其推進 ?速度與輸入控制信號之間的關(guān)系。當(dāng)驅(qū)動頻率增加時,由于流體動力阻尼力,機 ?器人的跳動幅度單調(diào)減小。實驗數(shù)據(jù)和模型預(yù)測都顯示了對于特定控制波形的最 ?佳驅(qū)動頻率的存在。實驗表明,該機器人可用于多種潛在醫(yī)療功能。 |
?
?
?
?
Robust Visual-Inertial State Estimation with Multiple Odometries and Efficient Mapping on an MAV with Ultra-Wide FOV Stereo Vision
魯棒多測度視覺慣性狀態(tài)估計及其在具有超廣角立體視覺的微型飛行器上的高效映射
| 論文作者 | M. G. Mu ?ller, F. Steidle, M. J. Schuster, P. Lutz, M. Maier, S. Stoneman, T. Tomic, and W. Sturzl |
| 論文地址 | 論文出處:IEEE International Conference on Intelligent Robots and Systems,2018 論文地址:https://ieeexplore.ieee.org/document/8594117 |
| 論文摘要 | 這里提出的飛行系統(tǒng)使用兩對廣角立體攝像機和地圖的興趣在短時間內(nèi)的一個大的地區(qū)。我們提出了一種配備了兩對廣角立體攝像機和一個慣性測量單元(IMU)的多機系統(tǒng),用于魯棒的視覺慣性導(dǎo)航和高效的全向三維制圖。四臺攝像機可以垂直覆蓋240度的立體視場(FOV),這使得該系統(tǒng)也適用于洞穴等狹窄和封閉的環(huán)境。在該方法中,我們從四個廣角攝像機合成八個虛擬針孔攝像機。由此產(chǎn)生的四個針孔立體聲系統(tǒng)中的每一個都提供了一個獨立的視覺測程(VO)輸入。隨后,基于四種運動估計與狀態(tài)估計的一致性,將四種運動估計與IMU的數(shù)據(jù)進行融合。我們描述了視覺系統(tǒng)的配置和圖像處理,以及傳感器融合和測繪管道在MAV上。我們證明了我們的多vo方法的魯棒性視覺慣性導(dǎo)航和目前的三維測繪實驗結(jié)果。收起會議名稱:—— |
| 研究問題 | 近年來,微型飛行器(MAV)已用于各種各樣的應(yīng)用中。他們能夠快速到達 ?感興趣的點或獲得以前難以或不可能到達的視角,這使它們對于諸如勘探,檢查, ?搜索和救援之類的任務(wù)變得非常有用。提出了一種配備兩對廣角立體相機和一個慣性測量單元(IMU)的多旋翼系統(tǒng),以實現(xiàn)強大的視覺慣性導(dǎo)航和省時的全向 ?3D 映射,如下圖所示。 |
| 研究方法 | 四個攝像頭垂直覆蓋了 240 度的立體視野(FOV),這使得該系統(tǒng)也適用于 ?狹窄和狹窄的環(huán)境,例如洞穴。在所提出的方法中,從四個廣角攝像頭合成了八 ?個虛擬針孔攝像頭。所得的四個合成針孔立體系統(tǒng)中的每一個都為獨立的視覺測 ?距法(VO)提供輸入。隨后,基于它們與狀態(tài)估計的一致性,將四個單獨的運 ?動估計與來自 IMU 的數(shù)據(jù)融合。 ? |
| 研究結(jié)果 | 提出了配備有四個廣角攝像機的 MAV。多達 240°的垂直立體視野使 MAV ?能夠感知其下方,上方和前方的對象,這與避障,路徑規(guī)劃和有效的映射等任務(wù) ?有關(guān)。實驗表明,由四個具有獨立關(guān)鍵幀的立體測距儀提供的魯棒運動估計,也 ?可以從較大的視野中受益,從而可以進行狀態(tài)估計。 |
?
?
?
文章內(nèi)容主要參考:《《2019中國人工智能發(fā)展報告》—清華大學(xué)中國工程院知識智能中心》
?
?
《新程序員》:云原生和全面數(shù)字化實踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的Paper之IEEERSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议RSJ智能机器人与系统国际会议机器人技术:科学与系统机器人学报)历年最佳论文简介及其解读的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 成功解决An error ocurred
- 下一篇: 成功解决源路径太长,源文件名长度大于文件