opencv 图像 抠图 算法_人工智能 | 不用绿幕也能实时抠图,商汤等提出只需单张图像、单个模型的新方法MODNet...
openEA開源周刊
openEA開源社區的官方運營載體
這里每天給大家呈現有價值的開源資訊,歡迎您的來稿與推薦,點擊上方藍色字,加入我們吧!
摘要:近日,香港城市大學和商湯提出一種新型人像摳圖方法 MODNet,不用綠幕、只用單張圖像、單個模型即可實時完成人像摳圖。
openEA開源社區(ID:openEA)| 出品
小夕? | 編輯
機器之心? | 來源
選自arXiv
作者:Zhanghan Ke 等沒有綠幕怎么摳圖?此前,華盛頓大學的研究人員提出用背景圖替換 trimap,不用綠幕也能實現不錯的摳圖結果。但該方法需要處理和對齊原始圖像和背景圖兩張圖像,不便于現實應用。近日,香港城市大學和商湯提出一種新型人像摳圖方法 MODNet,不用綠幕、只用單張圖像、單個模型即可實時完成人像摳圖。人像摳圖即預測一個精確的前景蒙版(alpha matte),然后利用它從給定圖像或視頻中提取人物。這一技術得到了廣泛的應用,如照片編輯、電影再創作等。目前,實時獲得高質量前景蒙版仍需要綠幕的輔助。但如果沒有綠幕呢?目前大部分摳圖方法使用預定義 trimap 作為先驗。但,trimap 需要人類標注,所需成本高昂,并且如果是通過深度相機捕獲,還會出現低精度問題。因此,近期的一些工作嘗試消除模型對 trimap 的依賴,即 trimap-free 方法。例如,華盛頓大學提出的?background matting?方法用分離背景圖像來替代 trimap。其他方法使用多個模型先生成偽 trimap 或語義掩碼,然后將其作為先驗進行前景蒙版預測。但使用背景圖像作為輸入需要輸入并對齊兩張圖像,使用多個模型會使推斷時間顯著增加。這些缺陷使得前述所有摳圖方法不適用于現實應用,如相機預覽。此外,受到標注訓練數據不足的限制,trimap-free 方法在實踐中常遇到域偏移問題,即模型無法很好地泛化至現實數據。能不能只用一個模型、一張 RGB 圖像,來預測精確的前景蒙版呢?最近,香港城市大學和商湯合作提出了一種輕量級網絡 MODNet,它將人像摳圖任務分解成三個相關的子任務,并通過特定約束執行同步優化。先來看一下 MODNet 的摳圖效果:MODNet 模型背后存在兩種洞見:一,神經網絡更擅長學習一組簡單目標,而不是一個復雜目標。因此,解決多個摳圖子目標可以實現更好的性能。二,對每個子目標應用顯式監督信號,可以使模型的不同部分學習解耦的知識,從而實現一個模型解決所有子目標。為了克服域遷移問題,該研究基于子目標一致性 (SOC) 提出了一種自監督策略,即利用子目標之間的一致性來減少預測前景蒙版中的偽影。此外,該研究還提出單幀延遲 (OFD) trick 這種后處理方法,以在視頻摳圖應用中獲得更流暢的輸出。MODNet 框架參見下圖:相比 trimap-free 方法,MODNet 具備以下優勢:MODNet 更快:它專為實時應用而設計,輸入大小為 512 × 512 時,MODNet 在 Nvidia GTX 1080Ti GPU 上的運行速度為 63 fps;
MODNet 獲得了新的 SOTA 結果,原因在于:1)目標分解和同步優化;2)對每個子目標應用特定的監督信號;
MODNet 具備更好的泛化能力,這得益于 SOC 策略。
低分辨率分支用于估計人類語義(監督信號是真值蒙版的縮略圖);
高分辨率分支用于辨別人像邊界(監督信號是過渡區域 (α ∈ (0, 1));
融合分支用來預測最終的前景蒙版(監督信號是整個真值蒙版)。
論文鏈接:https://arxiv.org/pdf/2011.11961.pdf
項目地址:https://github.com/ZHKKKe/MODNet
小貼士:
目前openEA應用市場已經上線啦,如果你手頭上剛好有開源項目,歡迎到我們這里展示!
同時周刊已增設開源工具欄目,歡迎聯系開源君投稿哦~
開源社區福利多多,歡迎登陸openea.net注冊會員哦!
END
/openEA
開源社區統一認證方案(上)——CAS與LDAP的搭建與集成
/企業應用
讓復雜的差旅費用報銷簡單起來
掃碼關注公眾號
新浪微博:@openEA開源社區
總結
以上是生活随笔為你收集整理的opencv 图像 抠图 算法_人工智能 | 不用绿幕也能实时抠图,商汤等提出只需单张图像、单个模型的新方法MODNet...的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 光栅衍射主极大个数_大学物理——光的干涉
- 下一篇: win10怎么把c盘锁住_win10如何