日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文笔记:ZFNet

發(fā)布時間:2025/3/21 编程问答 18 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文笔记:ZFNet 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

ZFNet

1、四個問題

  • 要解決什么問題?
    • 卷積神經(jīng)網(wǎng)絡(luò)具有很好的效果,在ImageNet上取得了開創(chuàng)性的成果,但是我們對其卻沒有一個直觀的認(rèn)識,以及它為何效果這么好,全當(dāng)成黑盒子來用。
  • 用了什么方法解決?
    • 提出了一個新的卷積神經(jīng)網(wǎng)絡(luò)可視化技術(shù),來輔助觀察中間層以及最后的分類層的輸出特征圖。
    • 提出了ZFNet,并應(yīng)用了反卷積技術(shù)來做可視化。
  • 效果如何?
    • ZFNet的效果在ImageNet上超過了AlexNet,這篇論文是14年的,放到現(xiàn)在效果不算最好。
    • 中間層可視化,不同層注重的部分可以較明顯地看出來。
  • 還存在什么問題?
    • 這篇文章主要是幫助理解CNN內(nèi)部工作機制的,了解思路就足夠了。
  • 2、論文概述

    2.1、實現(xiàn)方法

    • 實驗主要使用AlexNet和LeNet。
    • 使用反卷積(deconvnet)網(wǎng)絡(luò)來進(jìn)行可視化操作。提出了一種將激活值映射回輸入時的像素空間的方法,從結(jié)果可以看出輸入特征圖的哪些部分造成了特征圖的激活。
    • 網(wǎng)絡(luò)的每一層都使用一個反卷積得到像素級的輸出,輸入是feature map,輸出是圖像像素,如下圖所示。右圖是正常卷積過程,左圖是反卷積過程。

    • 過程分為三部分:unpooling --> rectification -->filtering。
      • unpooling(反池化):卷積神經(jīng)網(wǎng)絡(luò)中的max_pooling操作是不可逆的,但是可以用一組switch變量來記錄它激活的位置(每個pooling region中最大值的位置),來進(jìn)行一個近似的反卷積。
      • rectification(ReLU激活):卷積神經(jīng)網(wǎng)絡(luò)中使用ReLU作為激活函數(shù),ReLU的性質(zhì)就是正值部分保留不變,其余置0。我們重構(gòu)時,也可以使用ReLU進(jìn)行激活,結(jié)果不變。
      • filtering(反卷積,deconv):CNN使用訓(xùn)練得到的卷積核對前一層的輸入進(jìn)行卷積得到特征圖,反卷積就是將這個過程反過來,使用那些卷積核的轉(zhuǎn)置對下一層進(jìn)行卷積,得到前面層的值。注意到,這里對卷積核的操作是轉(zhuǎn)置,所以也叫作“轉(zhuǎn)置卷積”。

    2.2、可視化

    2.2.1、特征可視化

    • 通過對各層卷積核學(xué)習(xí)到的特征進(jìn)行可視化發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的特征存在層級結(jié)構(gòu)。
      • 第二層是學(xué)習(xí)到邊緣和角點檢測器.
      • 第三層學(xué)習(xí)到了一些紋理特征.
      • 第四層學(xué)習(xí)到了對于指定類別圖像的一些不變性的特征,例如狗臉、鳥腿.
      • 第五層得到了目標(biāo)更顯著的特征并且獲取了位置變化信息。

    2.2.2、訓(xùn)練期間特征的演變

    • 低層特征經(jīng)過較少epoch的訓(xùn)練過程之后就學(xué)習(xí)的比較穩(wěn)定了,層數(shù)越高越需要更多的epoch進(jìn)行訓(xùn)練。因此需要足夠多的epoch過程來保證順利的模型收斂。

    2.2.3、特征不變性

    • 平移影響不大,旋轉(zhuǎn)影響較大。卷及神經(jīng)網(wǎng)絡(luò)具有平移不變形,但不具有旋轉(zhuǎn)不變性。

    2.2.4、網(wǎng)絡(luò)結(jié)構(gòu)選擇

    • 在AlexNet的結(jié)構(gòu)基礎(chǔ)之上修改的,網(wǎng)絡(luò)結(jié)構(gòu)上沒有太多的創(chuàng)新。

    • 作者通過可視化AlexNet第一層和第二層的特征,發(fā)現(xiàn)比較大的stride和卷積核提取的特征不理想,所以作者將第一層的卷積核從11?1111*1111?11減小到7?77*77?7,將stride從4減小到2,實驗說明,這樣有助于分類性能的提升。

    2.2.5、遮擋分析

    • 遮擋實驗說明圖像的關(guān)鍵區(qū)域被遮擋之后對分類性能有很大的影響,說明分類過程中模型明確定位出了場景中的物體。

    2.2.6、一致性分析

    • 不同圖像的指定目標(biāo)局部塊之間是否存在一致性的關(guān)聯(lián),作者認(rèn)為深度模型可能默認(rèn)學(xué)習(xí)到了這種關(guān)聯(lián)關(guān)系。作者通過對五張不同的狗的圖像進(jìn)行局部遮擋,然后分析原圖和遮擋后的圖像的特征之間的漢明距離的和值,值越小說明一致性越大。實驗表明,對不同的狗的圖像遮擋左眼、右眼和鼻子之后的漢明距離小于隨機遮擋,證明存在一定的關(guān)聯(lián)性。

    3、參考資料

  • Visualizing and Understanding Convolutional Networks
  • 一個講解神經(jīng)網(wǎng)絡(luò)可視化的博客
  • https://blog.csdn.net/cdknight_happy/article/details/78855172
  • 總結(jié)

    以上是生活随笔為你收集整理的论文笔记:ZFNet的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。