opencv 图像 抠图 算法_人人可用的在线抠图,AI自动化的那种!北大校友算法玩出新高度...
楊凈 發自 凹非寺
量子位 報道 | 公眾號 QbitAI
現在人人可試可玩的圖像分割來了。
在線API,只需輸入圖片網址,即可自動刪除目標背景。
就拿今天凌晨剛奪得歐冠冠軍的拜仁來試試手~
然后就變成了這樣。
不過,也有翻車的時候,就像這頭大象。
分割之后…誒,它的另一只牙去哪了?
以及,在同時有手和貓的時候。
它呈現的結果就……有點怪異。
這項新應用名叫ObjectCut,在Reddit上一經發布,12小時就獲得700+的熱度。
不少網友表示:It’s amazing!
簡單三步,人人可試可玩
就以上面那頭大象為例,使用步驟非常簡單。
首先,任意選擇一張圖片,復制圖片地址。
第二步,網站上將地址粘貼到指定位置,然后點擊Test Endpoint。
等待幾秒之后,點擊旁邊生成的網址,就大功告成啦!
然后就變成了這樣一頭少了一顆牙的大象。
還是那個北大校友的研究
是不是覺得這項技術很熟悉,簡單幾步就可以去移除圖片背景?
跟之前的AR應用AR Cut & Paste——將現實物體隔空「復制粘貼」進電腦有異曲同工之妙。
這兩項應用背后的主要技術,都是一個叫做BASNet的顯著目標檢測方法。
這篇研究入圍了CVPR 2019,其論文一作是位華人小哥哥——秦雪彬,已經于今年2月在在加拿大阿爾伯塔大學拿到了博士學位,碩士就讀于北京大學。
BASNet的核心框架如下圖所示,主要由2個模塊組成:
第一個模塊是預測模塊,這是一個類似于U-Net的密集監督的Encoder-Decoder網絡,主要功能是從輸入圖像中學習預測saliency map。
第二個模塊是多尺度殘差細化模塊(RRM),主要功能是通過學習殘差來細化預測模塊得到的Saliency map,與groun-truth之間的殘差,從而細化出預測模塊的Saliency map。
而除了BASNet,還有網友推薦了U2-Net,依然來自同一個作者,其效果更好。
其研究是《U2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection》
實驗結果像這樣:
同一項技術,不一樣的玩法,你覺得這個方法還可以做什么有趣的應用?
另外,想要去試試這個在線圖像分割應用,可戳下方鏈接哦~
網址:
https://rapidapi.com/objectcut.api/api/background-removal
參考鏈接:
https://www.reddit.com/r/MachineLearning/comments/if1sdg/p_objectcut_api_that_removes_automatically_image/
— 完 —
量子位 QbitAI · 頭條號簽約
關注我們,第一時間獲知前沿科技動態
總結
以上是生活随笔為你收集整理的opencv 图像 抠图 算法_人人可用的在线抠图,AI自动化的那种!北大校友算法玩出新高度...的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 如何让自己时刻冷静的方法_如何锻炼自己的
- 下一篇: “人工智能的数理基础”主题论坛,五位学者