日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Depth-attentional Features for Single-image Rain Removal

發布時間:2024/3/26 编程问答 51 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Depth-attentional Features for Single-image Rain Removal 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

這是2019CVPR的一篇文章,主要創新點是引入了深度信息完成去雨。

文章指出了目前的去雨的方法忽略了雨痕在圖像中呈現出的物理特性,導致去雨的有效性較低。同時分析了雨圖成像機理,指出遠處的物體更多地是被霧遮擋,近處的則是雨紋,分析了受場景深度影響的雨的視覺效果。并根據場景深度制定了一個帶有雨條紋和霧的雨成像模型。為了訓練的像更接近真實在雨景中拍攝的圖像本文準備了一個新的數據集。因為數據集需要申請,還沒下來,等申請好了以后會放上鏈接。然后設計了一個端到端的深度神經網絡,我們訓練它通過深度引導的注意力機制來學習深度注意力的特征,并回歸剩余映射來產生無雨的圖像輸出。

創新之處:

  • 引入了場景的深度信息,大膽的推斷了基于場景深度的雨的成像過程,實現了在圖像中雨條紋和霧的結合。
  • 設計了一個端到端的神經網絡,形成深度指導的注意力機制學習深度注意特征,根據注意權值對殘差圖進行回歸,去除輸入雨圖像中的雨條紋和霧。
  • 準備了一個新的雨去除數據集。
  • 前人工作:

    由于現有數據集的限制,雨圖數據都是通過清晰圖像加上雨紋合成的,因此這些方法主要關注雨紋圖像。
    傳統方法:

  • 最早期通過設計基于低水平圖像統計的手工先驗來去除圖像中的雨紋。
  • Barnum 結合條紋模型和雨的特征,在頻域內檢測和去除雨紋。
  • Chen 通過一個低秩先驗去除雨紋,因為雨紋通常具有相似和重復的模式。
  • Li 采用基于高斯混合模型的patch先驗對背景和雨層進行去除雨紋。
  • Zhu 估計主導降雨方向并提出了一種雙層聯合優化方法來迭代地將雨紋從背景中分離出來。
  • 基于CNN:

  • Fu 從訓練數據中學習無雨層和雨層之間的映射函數。DerainNet
  • Yang 創建了一個多任務網絡,共同檢測和去除降雨。JORDER
  • Fu 利用先驗知識從輸入圖像中構造出基層和細節層,然后通過深度網絡從細節層學習殘差。DDN
  • Li 使用SE-Net建立了一個上下文擴展網絡,迭代地預測階段殘差。RESCAN
  • Zhang開發了一種殘差感知分類器來確定雨密度,并將幾個緊密相連的網絡堆疊起來,以此來估計殘差。DID-MDN
    同時:Garg和 Nayar 通過考慮場景深度和光源,開發了一種基于圖像的降雨生成算法。
  • 網絡結構:


    其中,
    藍色部分是:用于從輸入中提取多分辨率特征的卷積神經網絡
    綠色部分是:用于預測深度圖的解碼器分支
    橙色部分是:學習注意權重的深度引導注意機制
    黃色部分是:另一個解碼器分支,用于產生深度注意特征和注意權重;
    最后,我們使用一組組卷積對深度注意特征(粉紅色部分)進行殘差預測,并將其加入到輸入中,生成輸出的無雨圖像。

    成像具體工作:

    1、雨成像模型


    在自然界的成像中,造成視覺阻擋的不僅有雨紋,還有因為場景深度的原因在圖像上、視覺上呈現出霧的特征。一般情況下,認為離相機近的受雨紋影響比較大,離相機較遠的受霧的影響比較大。
    如圖所示,是雨紋強度隨深度影響的曲線,其中最大雨紋強度為tr0t_{r0}tr0?

  • 相機附近的場景對象(d≤d1)(d ≤ d_1)(dd1?),其關聯的圖像區域以雨紋為主,霧較小,即其中d1=2fad_1 = 2 f ad1?=2fa, fff為焦距,aaa為雨滴半徑,雨紋強度為最大雨紋強度tr0t_{r0}tr0?.
  • 場景對象遠離相機(d≥d2?d1)(d ≥ d_2 ? d_1)(dd2??d1?), 其相關的圖像區域將由霧和雨紋組成,當ddd增加時,trt_rtr?趨于0。
  • 隨著dddd1d_1d1?增加到d2d_2d2?,雨紋強度將下降,霧強度將上升。
  • 2、雨圖像的公式:


    其中,I(x)I(x)I(x)為場景亮度清晰的無雨圖像;R(x)∈[0,1]R(x)∈[0,1]R(x)[0,1]表示降雨層;A0A_0A0?為大氣光,假設為一個全局常數;且A(x)∈[0,1]A(x)∈[0,1]A(x)[0,1]表示霧層;
    具體表示如下圖:

    雨層:

    其中Rpattern(x)∈[0,1]R_{pattern}(x) ∈ [0,1]Rpattern?(x)[0,1]是圖像空間中均勻分布的雨條紋的強度圖像;tr(x)t_r(x)tr?(x)為依賴場景深度的雨條紋強度圖,*代表著像素乘法。

    其中ααα是一個控制雨紋強度的衰減系數。此外,tr0(這是最大的雨條紋強度)=e?αd1t_{r0}(這是最大的雨條紋強度)= e^{?αd_1}tr0?()=e?αd1?,而tr(x)t_r (x)tr?(x)始于tr0t_{r0}tr0?并隨著d(x)d (x)d(x)超越d1d_1d1?后逐漸下降。

    霧層:

    其中βββ是一個衰減系數,控制霧的厚度,βββ越大,霧越厚。

    3、新建數據集

    拍攝一對真實的有雨和無雨的照片進行訓練幾乎是不可能的,因為場景對象可能會移動,環境光線和相機曝光可能會改變。因此,現有的用于去雨的數據集通常是通過在照片上添加一個二維的雨紋層來制備。最近的深層網絡只是簡單地對其進行訓練以去除雨。顯然,物理雨模型被忽略了,所以現有的方法對真實的照片往往是失敗的;因此,本文新建立一個新的數據集 RainCityscapes(還在申請,申請好以后放上來)數據集都是戶外照片,每一張都有一個深度圖,雨圖像顯示出不同程度的雨和霧。
    從上面的公式來生成雨紋強度tr(x)t_r(x)tr?(x)和霧層A(x)A(x)A(x)
    參數分別設為(α,β,a)={(0.02,0.01,0.005),(0.01,0.005,0.01),(0.03,0.015,0.002)}(α,β,a)= \{(0.02, 0.01, 0.005), (0.01, 0.005, 0.01),(0.03, 0.015, 0.002)\}αβa={(0.02,0.01,0.005),(0.01,0.005,0.01),(0.03,0.015,0.002)}
    選用陰天無陰影的圖片作為深度圖,并使用深度去噪細化深度圖。
    最后得到9432張訓練圖片和1188張測試圖片。

    4、模擬成像的局限性

    模擬成象過程假設雨層和霧層是均勻分布和相互獨立的。而在現實世界中,雨、霧的視覺效果與雨強相關;雨的外觀取決于相機參數(如曝光時間);而降雨強度變化更為復雜。相機自身運動也會分散雨的分布,造成圖像空間額外的運動模糊。雖然我們的降雨模型是近似的,缺乏光學模型,但是合成的圖像確實有助于改善與之前的工作和數據相比的結果,這些工作和數據忽略了我們所探索的降雨特性。

    網絡具體工作:

    DAF-Net網絡工作流程:

    網絡首先利用卷積神經網絡(CNN)從輸入圖像中提取低層細節和高層語義,并生成不同分辨率的特征圖。
    然后使用兩個解碼器分支,每個分支逐步上采樣一個特征圖,并將其與相同分辨率的CNN 特征圖相結合,生成一個新的特征圖。
    在頂部的解碼器分支中,我們進一步回歸深度圖,并通過深度引導注意力機制學習一組注意力權重。
    在底部的解碼分支中,我們首先生成最終的(最高分辨率的)特征圖,然后將其與頂部分支的注意力權重相結合,生成深度注意特征。
    最后,在這些特征上應用一組群卷積,預測殘差映射,并將其加入到輸入圖像中,得到無雨輸出圖像。

    1、頂部解碼器分支回歸深度圖

    當上采樣特征圖的寬度達到輸入的四分之一時,我們添加一個監控信號,并對輸入圖像進行深度映射。注意,較低分辨率的深度圖足以作為學習注意權重的指導,因此我們退回四分之一寬度深度圖以減少計算和內存開銷。
    然后,通過對監控信號(訓練數據集中的輸入深度圖)中的深度值進行轉換,對深度值的對數進行回歸:

    d(x)d(x)d(x) 是像素x上的場景深度。
    D(x)D(x)D(x)是網絡中的監控信號。因此,網絡中的回歸深度圖實際上是對數深度值的圖。

    2、深度注意特征

    首先在我們的網絡中回歸深度圖,并以此為指導來學習一組注意力權重。然后,我們可以使用這些權值來集成來自我們網絡底部解碼器分支的特征圖,從而形成雨條紋和霧的殘留圖。在此基礎上,將殘差映射加入到雨圖像中,得到輸出的無雨圖像。
    圖為深度指導注意力機制:從回歸深度圖D(x)中學習權值。

    首先采用3個卷積塊對D(x)進行ReLU非線性運算,在每個3x3的卷積層之后。
    最后一個卷積塊的輸出是一組未歸一化的注意權值{A1,A2,…}\{A1, A2,…\}{A1,A2}。一般來說,每一種權重都對應一種特定類型的雨紋和霧。
    然后,應用Softmax函數對權重進行歸一化,生成注意權重{W1W2,…,}\{W1 W2,…,\}{W1W2,}每一個都與一組雨紋和霧有關。
    卷積和Softmax層用公式表達如下:

    從底部解碼器分支產生的最高分辨率的特征映射FbF_bFb?有256個特征通道。接下來,
    我們把256個通道分成n個子映射,每個子映射Fib(i=1、2、……,n)F_i^b (i =1、2、……, n)Fib?(i=12n)有256/n個通道,分辨率與原始特征圖 FbF_bFb?相同;實際上,我們設n為64。
    然后,我們將WcW_cWc?c?thc-thc?th子映射FcbF_c^bFcb?的每個特征通道按元素順序相乘,生成深度注意特征。

    現在,我們準備了n個獨立部分的深度注意特征。因此,我們可以在深度注意特征的每個部分分別進行n組的組卷積,以增強特征的表達性。通過采用組卷積,每個組中的特征只負責刪除具有較小類內方差的某種雨條紋和霧。最后,我們使用1×1的卷積將來自不同組的所有特征進行合并,得到殘差圖 Res(x),并將輸入的雨圖O(x)加入其中,得到輸出的無雨圖I(x)。

    3、訓練

    損失函數:

    其中,ωiω_iωi?ωdω_dωd?權重;
    XXXX4X_4X4?分別表示輸出圖像和深度圖的圖像域;
    I(x)lI(x)_lI(x)l?Iˉ(x)l\bar{I}(x)_lIˉ(x)l? 分別表示像素在預測圖像和真實圖像中的值,l?thl-thl?th RGB 中對應的顏色通道。
    D(x)D(x)D(x)(ˉD)(x)\bar(D)(x)(ˉ?D)(x)分別表示像素x處的預測深度和真實深度;
    I(x)lI(x)_lI(x)l?Iˉ(x)l\bar{I}(x)_lIˉ(x)l?D(x)D(x)D(x)(ˉD)(x)\bar(D)(x)(ˉ?D)(x)的值被歸一化為[0,1]。
    注意,無雨圖像I(x)的大小與輸入圖像相同,但深度圖D(x)的大小僅為輸入的1/16。

    總結

    以上是生活随笔為你收集整理的Depth-attentional Features for Single-image Rain Removal的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。