日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

DeepLab v2的摘要部分(翻译加理解)

發(fā)布時間:2025/4/5 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 DeepLab v2的摘要部分(翻译加理解) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

1.原文翻譯

In this work we address the task of semantic image segmentation with Deep Learning and make three main contributions that are experimentally shown to have substantial practical merit.

在這個工作當(dāng)中,我們聚焦深度學(xué)習(xí)當(dāng)中圖片語義分割問題,并做出了被實驗說明有很多實質(zhì)性成效的三個主要貢獻(xiàn)。

First, we highlight convolution with upsampled filters(上采樣過濾器), or ‘a(chǎn)trous convolution’, as a powerful tool in dense prediction tasks.

首先,我們顯著提升了卷積作為上采樣濾波器的存在,或者將這個描述為空洞卷積。是一個在稠密預(yù)測任務(wù)當(dāng)中有力的工具。

Atrous convolution allows us to explicitly control the resolution at which feature responses are computed within Deep Convolutional Neural Networks.

空洞卷積使得我們可以在特征被深度卷積神經(jīng)網(wǎng)絡(luò)的計算過程中,明確地控制分辨率。

It also allows us to effectively enlarge the field of view of filters to incorporate larger context without increasing the number of parameters or the amount of computation.

同樣地,空洞卷積也可以是我們可以有效地提升過濾器的感受野,來在不增加參數(shù)和計算量的前提下擴(kuò)大contesxt(我理解這里應(yīng)該是考慮更大的范圍)

Second, we propose atrous spatial pyramid pooling (ASPP) to robustly(魯棒性) segment objects at multiple scales.*

第二點,我們建議使用ASPP,在多尺度輸入的情況下,強化領(lǐng)域?qū)ο蟮聂敯粜?/p>

ASPP probes an incoming convolutional feature layer with filters at multiple sampling rates and effective fields-of-views,
ASPP探索一種帶有多抽樣率卷積特征層的濾波器,同時伴隨著有效地感受野。

thus capturing objects(目標(biāo)) as well as image context at multiple scales(多尺度).

這里注意object不應(yīng)該理解為對象,應(yīng)當(dāng)理解為目標(biāo)。
因此在多尺度上獲得了識別目標(biāo)和圖片上下文。

Third, we improve the localization of object boundaries by combining methods from DCNNs and probabilistic graphical
models. The commonly deployed combination of max-pooling and downsampling in DCNNs achieves invariance but has a toll on
localization accuracy. We overcome this by combining the responses at the final DCNN layer with a fully connected Conditional Random Field (CRF), which is shown both qualitatively and quantitatively to improve localization performance. Our proposed
“DeepLab” system sets the new state-of-art at the PASCAL VOC-2012 semantic image segmentation task, reaching 79.7% mIOU in
the test set, and advances the results on three other datasets: PASCAL-Context, PASCAL-Person-Part, and Cityscapes. All of our code
is made publicly available online.

2.理解部分

1.強調(diào)具有上采樣濾波器的空洞卷積在密集預(yù)測任務(wù)中是很有用的工具。空洞卷經(jīng)濟(jì)可以準(zhǔn)確控制深度神經(jīng)網(wǎng)絡(luò)當(dāng)中的特征相應(yīng),同時可以在不增加參數(shù)和計算量的前提下提升感受野。
有點難理解,大約就是說密集任務(wù)中,這個挺有效果的,有效果的原因可以理解成,這個東西不用引入新的參數(shù)不用增加計算量就可以獲得更好的感受野。
2.提出了atrous spatial pyramid pooling (ASPP) 網(wǎng)絡(luò),增強了在多尺度下多類別分割時的魯棒性,使用不同的采樣比例與感受野提取輸入特征,能在多個尺度上捕獲目標(biāo)與上下文信息。
大約我們是可以將這個理解成使用空洞卷積獲得不同的尺度信息來共同輸入
3.通過圖模型(a fully connected Conditional Random Field ,CFR(DenseCRF))來精確確定分割的邊界。
這個東西就是在模型的最后使用了一個傳統(tǒng)的概率圖模型,來有效處理語義分割的邊界

總結(jié)

以上是生活随笔為你收集整理的DeepLab v2的摘要部分(翻译加理解)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。