Facebook提出使用3D导航任务来训练自主机器人
據外媒 Venturebeat 報道,Facebook、喬治亞理工學院和俄勒岡州立大學的研究人員在本周發表的一篇預印本論文中,描述了人工智能的一項新任務——通過聽自然語言的指令,在 3D 環境中導航(例如,“走下大廳,在木桌旁左轉”)。他們說,這可以為遵循自然語言指令的機器人助手奠定基礎。
研究人員的任務,被稱之為在連續環境中的視覺和語言導航(VLN-CE),是在 Facebook 的模擬器 Habitat 中進行的,該模擬器可以訓練機器人助手在模擬真實環境的環境中操作。直徑為 0.2 米、1.5 米高的助手被放置在來自 Matterport3D 數據集的內部,該數據集是通過 10800 多個全景圖和相應的 3D 網格捕獲的 90 個環境的集合。
機器人助手必須在一條路徑上做四個動作(向前移動 0.25 米,左轉或右轉 15 度,或停在目標位置)中的一個,并學會避免被困在障礙物上,比如椅子和桌子上。
研究小組將這些環境提煉成 4475 條由 4 到 6 個節點組成的軌跡,這些軌跡對應于在各個位置拍攝的 360 度全景圖像,顯示了導航能力。
他們用這個訓練兩個人工智能模型:一個 sequence-to-sequence 模型,該模型由采取視覺觀察和指令表示的策略組成,并使用它們預測一個動作;另一個是兩個網絡交叉模式注意模型,該模型跟蹤觀察結果,并根據指令和特征做出決策。
研究人員表示,在實驗中,表現最好的機器人可以遵循“向左拐,進入走廊”之類的指令,盡管這些指令要求機器人在發現視覺路標之前轉動未知的次數。事實上,機器人在看不見的環境,大約三分之一的場景中導航到目標位置,平均采取了 88 次行動。
這些機器人偶爾也會失敗,根據合著者的說法,這些失敗通常是由于機器人在視覺上丟失了指令中提到的對象。
“至關重要的是,VLN-CE 為(研究)社區提供了一個測試平臺,在這里可以進行研究高級和低級控制界面的這類集成實驗,”合著者寫道。
Facebook 投入了大量資源來解決自主機器人導航的問題。
雷鋒網了解到,今年 6 月,在公布了一項訓練六足機器人走路的計劃后,Facebook 首次推出了 PyRobot,一種用于 PyTorch 機器學習框架的機器人框架。2018 年,Facebook 推出了開源人工智能,可以通過 360 度圖像在紐約市街道上導航。最近,Facebook 的一個團隊發表了一篇論文,描述了一個通過觀看視頻學習如何在辦公室里走動的系統。
總結
以上是生活随笔為你收集整理的Facebook提出使用3D导航任务来训练自主机器人的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 苹果12现在的价格,苹果12的当下售价是
- 下一篇: 华为余承东:P40 Pro体验比120H