日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

U2NET目标显著性检测,抠图去背景效果倍儿棒

發布時間:2025/1/21 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 U2NET目标显著性检测,抠图去背景效果倍儿棒 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

點擊上方“AI搞事情”關注我們


?

論文:U^2-Net: Going Deeper with Nested U-Structure for Salient Object Detection
GIT:https://github.com/NathanUA/U-2-Net

?

U2Net用于顯著目標檢測(Salient Object Detection, SOD) ,目的是分割出圖像中最具吸引力的目標。不同于圖像識別,SOD更注重局部細節信息和全局對比信息,而不是深層語義信息,因此,主要的研究方向在于多層次與多尺度特征提取上。

網絡結構

U2Net網絡結構如下圖,整體是一個編碼-解碼(Encoder-Decoder)結構的U-Net,其中,每個stage由新提出的RSU模塊(residual U-block) 組成,即一個兩層嵌套的U結構網絡。

「其優勢在于:」
1.RSU模塊,融合了不同尺度感受野的特征,能夠捕獲更多不同尺度的上下文信息(contextual information)。
2.RSU模塊的池化(pooling)操作,可以在不顯著增加計算成本的情況下,加深網絡結構的深度。

RSU,ReSidual Ublock, 用于捕獲intra-stage的多尺度特征. 其結構如圖(e)所示:

(a)-(c)顯示了具有最小感受野的現有卷積塊,但是1x1或者3x3的卷積核的感受野太小而無法捕捉全局信息,(d)通過利用空洞卷積增大感受野來獲取全局信息,然而在前期大分辨率的輸入特征圖計算需要耗費大量的計算和內存資源。

殘差模塊與RSU模塊的對比:主要設計區別在于,RSU用U-Net代替了普通的單流卷積,并用一個權重層構成的局部特征代替了原始特征:

損失函數

U2Net訓練損失函數定義:

其中,M=6, 為U2Net 的 Sup1, Sup2, ..., Sup6 stage,為對應輸出的顯著圖(saliency map)的損失函數;為最終融合輸出的顯著圖的損失函數,為每個損失函數的權重。

對于每一項,使用標準二進制交叉熵來計算損失:

其中,(r,c)為像素坐標;(H, W) 為圖像尺寸,height 和 width。和分別表示 GT 像素值和預測的顯著概率圖(saliency probability map)。

結果可視化


搞事情

作者開源了代碼,最近還公開了一些有趣的基于U2Net的應用,比如人像轉素描,摳圖、背景去除等。

我們可以根據說明進行一把嘗試:

圖像轉素描

  • 下載源碼
    git clone https://github.com/NathanUA/U-2-Net.git

  • 下載轉素描模型:u2net_portrait.pth放入到./saved_models/u2net_portrait/下面。

  • 執行腳本python u2net_portrait_test.py程序會讀取U-2-Net/test_data/test_portrait_images/portrait_im路徑下的照片進行轉換,并把結果輸出在U-2-Net/test_data/test_portrait_images/portrait_results路徑下。
    若在CPU環境運行會提示torch.load使用參數map_location='cpu'即:net.load_state_dict(torch.load(model_dir, map_location='cpu'))

項目也提供了任意人臉圖像轉換的demo,區別在于增加了opencv的人臉檢測,以及裁剪到輸入的512x512大小,可以通過python u2net_portrait_demo.py執行,
圖片放入路徑./test_data/test_portrait_images/your_portrait_im/

結果在路徑:./test_data/test_portrait_images/your_portrait_results/

摳圖

通過U2Net,可以得到精細的前景alpha圖像,通過簡單的mask操作就可以將前景目標扣取出來。

#?encoding=utf-8 import?os import?cv2 import?numpy?as?np im1_path?=?'1/test.png'??#?原圖 im2_path?=?'2/test_alpha.png'??#?alpha圖 img1?=?cv2.imread(im1_path) img2?=?cv2.imread(im2_path,?cv2.IMREAD_GRAYSCALE) h,?w,?c?=?img1.shape img3?=?np.zeros((h,?w,?4)) img3[:,?:,?0:3]?=?img1 img3[:,?:,?3]?=?img2 cv2.imwrite('res.png',?img3)

有大佬將其做成了一個工具:www.remove.bg(50次免費試用),以及還有一個python庫

參考:

1. Github 項目 - U2Net 網絡及實現

2. U2Net論文解讀及代碼測試

原文鏈接下載模型:0rl5

往期推薦

  • 行千里,看山城輕軌穿樓越林;致廣大,望重慶交通橋上橋下

  • CRNN:端到端不定長文字識別算法

  • DeepHSV:號稱可以商用的計算機筆跡鑒別算法

  • python獲取原圖GPS位置信息,輕松得到你的活動軌跡

  • 機器學習中有哪些距離度量方式

長按二維碼關注我們

有趣的靈魂在等你

總結

以上是生活随笔為你收集整理的U2NET目标显著性检测,抠图去背景效果倍儿棒的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产牛牛 | 免费超碰在线观看 | 极品少妇xxxx精品少妇偷拍 | 91亚色视频在线观看 | 丝袜av网站| 欧美精品国产一区二区 | 国产小视频在线观看 | 国产男女猛烈无遮挡 | 国产ts人妖系列高潮 | 综合五月婷婷 | 五月婷婷综合激情 | 日韩av资源在线观看 | 久热只有精品 | 裸体女视频 | 精品不卡一区 | 黄色一级在线视频 | 一区二区 中文字幕 | 懂色av一区二区在线播放 | 久久久国产视频 | 国产精品一二三区 | 天天射天天拍 | 国产 日韩 一区 | 黄色网www| 波多野结衣视频观看 | 天堂中文在线最新 | 成人福利片| 奇米影视亚洲春色 | 香蕉视频黄在线观看 | 男男全肉变态重口高h | 中文一区在线 | 欧美大片高清免费观看 | 久久草av| 蜜桃av中文字幕 | 狂野欧美性猛交xxⅹ李丽珍 | 中文字幕在线观看三区 | 午夜视频一区 | 国产精品中文无码 | 在线观看无码精品 | 欧美永久视频 | 久久亚洲精少妇毛片午夜无码 | 亚洲伦理天堂 | 亚洲人视频| 五月天中文字幕在线 | av福利在线| 在线观看亚洲 | 一区二区三区精品 | 男女啪啪十八 | 欧美日本黄色 | 爱草av| 亚洲第一av | 秘密基地免费观看完整版中文 | 一级特黄毛片 | 精品人妻一区二区三区香蕉 | 亲子乱一区二区三区 | 国产激情在线观看 | 亚洲国产欧美日韩 | 精品无码一区二区三区电影桃花 | 国产xxxx孕妇 | 91国产在线看 | 日韩视频免费观看高清 | 亚洲综合性 | 骚色综合 | 天堂在线v | 国产精品视频久久久久久久 | 大桥未久在线视频 | 美女被男生免费视频 | 波多野结衣爱爱 | 韩日一级片 | 欧美老女人性生活 | av不卡一区| 女人脱下裤子让男人捅 | 国产精品久久久久毛片 | 国产女18毛片多18精品 | 国产成人精品av在线观 | 好好热视频 | 欧美又大又硬又粗bbbbb | 亚洲激情欧美色图 | 欧美在线观看一区 | 日本特级黄色片 | 久久精品高清 | 色悠悠网| 久久露脸国语精品国产91 | 黄色av网站免费在线观看 | 欧美少妇b| 91视频xxx| 欧美性猛交xx | 日本一级片免费看 | 亚洲制服一区二区 | 一本到免费视频 | 极品色影视 | 欧美精品黑人 | 日本高清不卡视频 | 69精品一区二区 | 亚洲逼逼 | 蜜桃视频一区二区 | 91视频分类 | 亚洲综合一区在线观看 | 男生脱女生衣服 | 欧美一区二区三区粗大 |