日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > ChatGpt >内容正文

ChatGpt

AI:IPPR的数学表示-CNN基本结构分析( Conv层、Pooling层、FCN层/softmax层)

發(fā)布時(shí)間:2023/12/31 ChatGpt 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 AI:IPPR的数学表示-CNN基本结构分析( Conv层、Pooling层、FCN层/softmax层) 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

??????? 類似于SVM,CNN為代表的DNN方法的邊緣參數(shù)隨著多類和高精度的要求必然增長。比如向量機(jī)方法,使用可以映射到無窮維的高斯核,即使進(jìn)行兩類分類,在大數(shù)據(jù)集上得到高精度,即保持準(zhǔn)確率和高精度的雙指標(biāo),支持向量的個(gè)數(shù)會(huì)隨著數(shù)據(jù)集增長,SVM三層網(wǎng)會(huì)變得非常寬。CNN方法的多層結(jié)構(gòu),在保留邊緣映射的數(shù)目的同時(shí)可以有效地降低“支持向量”的個(gè)數(shù),是通過函數(shù)復(fù)合—因式分解得到的,至于要使用多少層的網(wǎng)絡(luò),每一層網(wǎng)神經(jīng)元的個(gè)數(shù),兩層之間的鏈接方式,理論上也應(yīng)該有一般的指導(dǎo)規(guī)則。

?????? 參考鏈接:人工機(jī)器:作為歸納系統(tǒng)的深度學(xué)習(xí) ,參考文章:卷積神經(jīng)網(wǎng)絡(luò).卷積層和池化層學(xué)習(xí)? ,原始CNN論文,對(duì)摘抄段落有大量修改,如有疑問,請(qǐng)參考原文。16年的小總結(jié).

?

特征學(xué)習(xí)與結(jié)構(gòu)學(xué)習(xí)

??????? 深度學(xué)習(xí)以“數(shù)據(jù)驅(qū)動(dòng)”范式顛覆了“人造特征”范式,完成“特征學(xué)習(xí)”,這是一個(gè)重大的進(jìn)步。但與此同時(shí),它自己又陷入了一個(gè)“人造結(jié)構(gòu)”窠臼中。06年hinton教授發(fā)表在nature上的最初的論文,多層壓縮映射。給出的深度學(xué)習(xí)的方案是無監(jiān)督學(xué)習(xí)獲取網(wǎng)絡(luò)結(jié)構(gòu),之后再通過有監(jiān)督學(xué)習(xí)優(yōu)化參數(shù),DNN網(wǎng)絡(luò)的引爆點(diǎn)恰恰是結(jié)構(gòu)學(xué)習(xí)。大量利用未標(biāo)記數(shù)據(jù)學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)是深度學(xué)習(xí)最初的構(gòu)想。

  但無論Hinton教授組最初設(shè)計(jì)的AlexNet,還是后來的VGG,GoogLeNet,ResNet等等,都是富有經(jīng)驗(yàn)的專家人工設(shè)計(jì)出來的。給定一個(gè)新問題,到底什么樣的網(wǎng)絡(luò)結(jié)構(gòu)是最佳的(如多少卷積層)卻不得而知,這在一定程度上阻礙了深度學(xué)習(xí)在更多智能任務(wù)上的普及和應(yīng)用。因此,同時(shí)學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)參數(shù)是一個(gè)值得大力關(guān)注的研究方向。( 假設(shè)空間問題難以突破,至于過擬合欠擬合都沒有統(tǒng)一簡單的評(píng)判準(zhǔn)則,也因此難以使用機(jī)器自動(dòng)完成,相對(duì)于給定結(jié)構(gòu)后使用數(shù)據(jù)結(jié)構(gòu)優(yōu)化參數(shù), 優(yōu)化結(jié)構(gòu)是個(gè)更加復(fù)雜且更高層的問題。多年已過,眾人發(fā)現(xiàn),ALexNet并非最優(yōu)結(jié)構(gòu),這是一個(gè)經(jīng)過大量專家枚舉結(jié)構(gòu)很長時(shí)間才得到的結(jié)果)。

???? ?? 而2006年Hinton教授等人倡導(dǎo)的卻恰恰是利用無監(jiān)督學(xué)習(xí)來對(duì)深層神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練。利用超量的數(shù)據(jù)學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)是一個(gè)更耗費(fèi)時(shí)間和計(jì)算能力的事情。此后,特別是DCNN興起之后,無監(jiān)督的預(yù)訓(xùn)練似乎已經(jīng)被很多研究者所拋棄( 特別是在CV領(lǐng)域,因?yàn)楹娜粘志?#xff0c;遠(yuǎn)不如使用專家經(jīng)驗(yàn)代價(jià)更小)。

??????? 直接從大量無監(jiān)督數(shù)據(jù)中學(xué)習(xí)模型確實(shí)是非常困難的,即便是人這部“機(jī)器”,也有“狼孩”的例子警告我們“無師自通”似乎是不現(xiàn)實(shí)的。但“少量有導(dǎo)師數(shù)據(jù)+大量無導(dǎo)師數(shù)據(jù)”的模式也許是更值得大力研究的。

??????? Hinton教授提出的使用無監(jiān)督訓(xùn)練確定網(wǎng)絡(luò)結(jié)構(gòu),使用編碼/解碼器,對(duì)每次編碼/解碼進(jìn)行分解/重建,使用殘差逐層優(yōu)化編碼器,保證每一層對(duì)無標(biāo)簽樣本的壓縮函數(shù)的緊鄰特性,在理論上是可行的,但在實(shí)際運(yùn)用中是極難實(shí)現(xiàn)的。這種方法需要比有標(biāo)簽樣本多更多的無標(biāo)簽樣本,以分析海量樣本中隱藏的模式,甚至需要高出一個(gè)或幾個(gè)級(jí)別的樣本數(shù)量,甚至是遍歷級(jí)別的樣本。在不停的調(diào)整網(wǎng)絡(luò)結(jié)構(gòu),預(yù)訓(xùn)練結(jié)束之前,憑專家知識(shí)可能已經(jīng)得到了近似最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu)。

??????? 這是一個(gè)人腦分支定界法法和計(jì)算機(jī)遍歷方法的PK,現(xiàn)階段計(jì)算機(jī)遍歷的方法還是不現(xiàn)實(shí)的。

??????? 而工業(yè)上廣為流行的CNN結(jié)構(gòu)一般使用了ImageNet的分類模型,再通過微調(diào)使其適用于使用者自身研究的問題。這個(gè)眾人使用的ImageNet模型,便相當(dāng)于已經(jīng)通過非監(jiān)督學(xué)習(xí)學(xué)習(xí)了網(wǎng)絡(luò)結(jié)構(gòu)的預(yù)訓(xùn)練模型。

?

??????

?

CNN的結(jié)構(gòu)分析—卷積層

???????? CNN的二維結(jié)構(gòu)天然適合圖像特征提取和識(shí)別過程,卷積運(yùn)算的計(jì)算過程及功能相當(dāng)于反向模板匹配。CNN通過卷積層,訓(xùn)練不同的卷積核來提取圖像中隱含的模式。CNN訓(xùn)練得到的是濾波器-卷積核,本質(zhì)上是對(duì)于某種特定的模式有響應(yīng),反之無響應(yīng),所以全卷積一直到最后一層,響應(yīng)最強(qiáng)的特征圖。

???????? 網(wǎng)如其名,CNN方法必然包含了一個(gè)卷積算子層。還是拿LeNet為例,結(jié)構(gòu)圖為:

????????

?

?????? LeNet使用了兩個(gè)卷積層,C1層和C3層。C1層,輸入圖片:32*32 ;卷積核大小:5*5 ;卷積核種類:6 ;輸出featuremap大小:28*28 (32-5+1);神經(jīng)元數(shù)量: 28 *28 *6; 可訓(xùn)練參數(shù):(5*5+1)*6(每個(gè)濾波器5*5=25個(gè)unit參數(shù)和一個(gè)bias參數(shù),一共6個(gè)濾波器);連接數(shù):(5*5+1)*6*28*28。

???????? C3層也是一個(gè)卷積層,輸入:S2中所有6個(gè)或者幾個(gè)特征map組合; 卷積核大小:5*5;卷積核種類:16; 輸出featureMap大小:10*10;C3中的每個(gè)特征map是連接到S2中的所有6個(gè)或者幾個(gè)特征map的,表示本層的特征map是上一層提取到的特征map的不同組合,存在的一個(gè)方式是:C3的前6個(gè)特征圖以S2中3個(gè)相鄰的特征圖子集為輸入。接下來6個(gè)特征圖以S2中4個(gè)相鄰特征圖子集為輸入。然后的3個(gè)以不相鄰的4個(gè)特征圖子集為輸入,最后一個(gè)將S2中所有特征圖為輸入;則:可訓(xùn)練參數(shù):6*(3*25+1)+6*(4*25+1)+3*(4*25+1)+(25*6+1)=1516;連接數(shù):10 *10 *1516 = 151600。

???????? 卷積層的作用:卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的。卷積運(yùn)算的目的是提取輸入的不同特征。使用不同的卷積核的組合,可實(shí)現(xiàn)梯度計(jì)算、尺度計(jì)算(配合maxpooling層)等作用,,可以對(duì)顯著性進(jìn)行選擇。第一層卷積層可能只能提取一些低級(jí)的特征如邊緣、線條和角等層級(jí),更多層的網(wǎng)絡(luò)能從低級(jí)特征中迭代提取更復(fù)雜的特征(這也是深度的要求)。

????????

???????????????

???????????????????????? 圖片來自:卷積神經(jīng)網(wǎng)絡(luò).卷積層和池化層學(xué)習(xí)? ,摳圖于原始CNN論文

??? ? ?? 卷積層的更新模型:卷積層類似于BP網(wǎng)絡(luò)的二維描述,依然使用前向傳播計(jì)算輸出,使用反向傳播在訓(xùn)練過程中調(diào)整權(quán)重和偏置,更新網(wǎng)絡(luò)。參考卷積核的反傳算法。一般前向計(jì)算,把卷積方法轉(zhuǎn)換為圖像矩陣和卷積核矩陣的乘法形式,直接計(jì)算。

???????? 卷積層的Caffe表示:caffe直接給出了卷積層的參數(shù)調(diào)整方法,不需要自己設(shè)計(jì)卷積神經(jīng)元。

???????? AlexNet模型配置文件:輸出256個(gè)卷積圖,使用5*5的卷積核,使用高斯核,標(biāo)準(zhǔn)偏差為0.1。此層附帶了ReLu激活函數(shù)層。上層輸入為96.

layer {name: "conv2"type: "Convolution"bottom: "norm1"top: "conv2"param {lr_mult: 1decay_mult: 1}param {lr_mult: 2decay_mult: 0}convolution_param {num_output: 256pad: 2kernel_size: 5group: 2weight_filler {type: "gaussian"std: 0.01}bias_filler {type: "constant"value: 1}} } layer {name: "relu2"type: "ReLU"bottom: "conv2"top: "conv2" }

?

CNN的結(jié)構(gòu)分析—Pooling層

?

??????? 使用卷積核提取的大量特征,產(chǎn)生超高的維度,面臨著表示困難的問題,且直接疊加的卷積層會(huì)產(chǎn)生更龐大的卷積特征集合。Pooling層一般作為顯著性選取和降維的作用存在。

??????? Pooling明顯地降低了特征圖的維度

???????? 使用MeanPooling的方式,相當(dāng)于平均化特性,用于簡化函數(shù)模型,同時(shí)喪失了一些特異性準(zhǔn)確性,增加泛化性能,即是把復(fù)雜模型轉(zhuǎn)化為一個(gè)平均模型,得失都很明顯。而maxpooling則描述為提取特征本身的顯著性作用,同時(shí)進(jìn)行數(shù)據(jù)壓縮。

????????

????????

???????? MeanPooling可以用網(wǎng)絡(luò)加深來替換其數(shù)據(jù)壓縮的作用,一個(gè)MeanPooling層相當(dāng)于網(wǎng)絡(luò)深度增加兩倍,而MeanPooling自身模型簡單化的特點(diǎn)喪失了準(zhǔn)確性表示,逐漸被取代一般不再被使用。上圖中,同樣地采用一個(gè)2*2的filter,max pooling是在每一個(gè)區(qū)域中尋找最大值,這里的stride=2,最終在原特征圖中提取主要特征得到右圖。概率意義上, MaxPooling 過程之后,特征更小且相對(duì)表示性更強(qiáng)。

???? ?? 參考文章:http://ufldl.stanford.edu/wiki/index.php/池化?

??????? 池化的平移不變性:如果人們選擇圖像中的連續(xù)范圍作為池化區(qū)域,并且只是池化相同(重復(fù))的隱藏單元產(chǎn)生的特征,那么,這些池化單元就具有平移不變性 (translation invariant)。這就意味著即使圖像經(jīng)歷了一個(gè)小的平移之后,依然會(huì)產(chǎn)生相同的 (池化的) 特征。在很多任務(wù)中 (例如物體檢測(cè)、聲音識(shí)別),我們都更希望得到具有平移不變性的特征,因?yàn)榧词箞D像經(jīng)過了平移,樣例(圖像)的標(biāo)記仍然保持不變。例如,如果你處理一個(gè)MNIST數(shù)據(jù)集的數(shù)字,把它向左側(cè)或右側(cè)平移,那么不論最終的位置在哪里,你都會(huì)期望你的分類器仍然能夠精確地將其分類為相同的數(shù)字。(*MNIST 是一個(gè)手寫數(shù)字庫識(shí)別庫: http://yann.lecun.com/exdb/mnist/)

??????? 池化的方式:可使用劃分池化的形式,也可以使用Overlap池化的形式。此外可以使用金字塔池化的形式,每層使用不同的池化單元,形成一個(gè)金字塔特征,也用于縮放不變性,同時(shí)可以處理一定的形變。

?????? 金字塔池化,可用于處理一定的仿射形變。

CNN的結(jié)構(gòu)分析—全鏈接層

???????? 使用卷積核提取的大量特征,產(chǎn)生超高的維度,同時(shí)使用MaxPooling層進(jìn)行維度壓縮同時(shí)選取明顯特征。CNN網(wǎng)絡(luò)通常反復(fù)堆疊Conv+MaxPooling層,變得更深,因此能提取更加全局更加高層的特征,同時(shí)不會(huì)產(chǎn)生太高的特征維度。對(duì)一個(gè)圖片輸入產(chǎn)生一個(gè)特征集合。

???????? 全鏈接層,連接所有的特征,把多個(gè)Map壓縮為1個(gè)X維向量,將輸出值送給分類器(如softmax分類器)

???????? ALexNet模型的配置文本如下:

layer {name: "fc7"type: "InnerProduct"bottom: "fc6"top: "fc7"param {lr_mult: 1decay_mult: 1}param {lr_mult: 2decay_mult: 0}inner_product_param {num_output: 4096weight_filler {type: "gaussian"std: 0.005}bias_filler {type: "constant"value: 1}} } layer {name: "relu7"type: "ReLU"bottom: "fc7"top: "fc7" } layer {name: "drop7"type: "Dropout"bottom: "fc7"top: "fc7"dropout_param {dropout_ratio: 0.5} } layer {name: "fc8"type: "InnerProduct"bottom: "fc7"top: "fc8"param {lr_mult: 1decay_mult: 1}param {lr_mult: 2decay_mult: 0}inner_product_param {num_output: 1000weight_filler {type: "gaussian"std: 0.01}bias_filler {type: "constant"value: 0}} }

???????? 第7層全鏈接層輸出參數(shù)為4096,默認(rèn)表示輸出4096個(gè)維度向量。此外,設(shè)置的dropout率為0.5,則意味著使用了另外0.5的鏈接冗余,用于增強(qiáng)泛化能力。

?

CNN的結(jié)構(gòu)分析—SoftMax分類器

??????? CNN多數(shù)分類模型最終選擇了MLP+SoftMax分類器,使用MLP-全連接層進(jìn)行特征降維,SoftMax函數(shù)進(jìn)行分類。是否因?yàn)镾oftMax分類器在多分類上的無偏性,便利性?訓(xùn)練時(shí)參數(shù)更新的更快。

??????? 為什么一定要把最后的分類器設(shè)置為處理向量空間的SoftMax分類器,而不是直接使用x*x—>1*1或者x*1—>1*1的卷積方式呢?。

??????? 使用Softmax回歸模型,該模型是logistic回歸模型在多分類問題上的推廣,在多分類問題中,類標(biāo)簽 可以取兩個(gè)以上的值。 Softmax回歸模型對(duì)于諸如MNIST手寫數(shù)字分類等問題是很有用的,該問題的目的是辨識(shí)10個(gè)不同的單個(gè)數(shù)字。Softmax回歸是有監(jiān)督的。

???????? SoftMax分類器:? http://ufldl.stanford.edu/wiki/index.php/Softmax......

???????

???????? SoftMax層計(jì)算過程:

???????

??????? Caffe配置文件:

layer {name: "fc8"type: "InnerProduct"bottom: "fc7"top: "fc8"param {lr_mult: 1decay_mult: 1}param {lr_mult: 2decay_mult: 0}inner_product_param {num_output: 1000weight_filler {type: "gaussian"std: 0.01}bias_filler {type: "constant"value: 0}} } layer {name: "accuracy"type: "Accuracy"bottom: "fc8"bottom: "label"top: "accuracy"include {phase: TEST} } layer {name: "loss"type: "SoftmaxWithLoss"bottom: "fc8"bottom: "label"top: "loss" }

?

?

????????? 第8層全鏈接層輸出參數(shù)為1000,表示AlexNet模型默認(rèn)輸出1000個(gè)類別。

?

?

CNN結(jié)構(gòu)總結(jié)

??????? CNN方法對(duì)輸入圖像不停的卷積、pooling,提取更多的特征圖,使用全鏈接層映射到特定維度的特征向量空間,再通過MLP或者softmax分類器獲得圖像目標(biāo)分類。

??????? 檢測(cè)可以視為選取BoundingBox和分類的結(jié)合,而后出現(xiàn)的DarkNet更是直接產(chǎn)生了回歸模型。

??????? 下圖為典型的DeepID模型。

????????

???????

?????? Car的圖片經(jīng)過CNN層層特征提取和Polling過程,最后生成的Map經(jīng)過壓縮為m維向量,經(jīng)過SoftMax函數(shù),壓縮為n維浮點(diǎn)數(shù),然后經(jīng)過Max()函數(shù),取得分類結(jié)果。

總結(jié)

以上是生活随笔為你收集整理的AI:IPPR的数学表示-CNN基本结构分析( Conv层、Pooling层、FCN层/softmax层)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 青青草五月天 | 丁香久久综合 | 狼人伊人av | av中文在线天堂 | 爱色av网站| 国产精品嫩草影院av蜜臀 | 啪啪小视频 | 久草免费在线观看视频 | 国产精品一线天粉嫩av | 欧美久久久久久久久久久久 | 久久综合一本 | 久久久久久久久久网 | 亚洲美女高潮久久久 | 亚洲性综合 | 男生把女生困困的视频 | 欧美爱爱一区二区 | 茄子香蕉视频 | 在线免费观看网站入口在哪 | 亚洲色图丝袜 | 69免费视频| 又色又爽又黄18网站 | 免费av在线网址 | 国产6区| 日韩91| 国产成人精品一区二区三区免费 | 韩国视频一区二区 | 成人久久久精品乱码一区二区三区 | 一区二区xxx | 亚洲精品久久久久久 | 久久久久人妻一区精品色 | 国产伦精品一区二区三区四区视频 | 九九热视频在线 | 午夜精品久久久久久久99热黄桃 | 国产21页| 欧美一区精品 | 亚洲性自拍 | 国产图区| 欧美在线视频不卡 | 午夜免费播放观看在线视频 | 午夜精品福利一区二区三区蜜桃 | 色婷婷一区二区三区 | 日日摸夜夜添狠狠添欧美 | 久久综合中文字幕 | 午夜不卡福利视频 | 国产区网址 | 长篇高h肉爽文丝袜 | 国产在线黄 | 国产国语对白 | 日韩 国产 | 大学生一级片 | a∨视频| 国产淫视频 | 日日夜夜操操操 | 女av在线| 男人天堂av在线播放 | 日本韩国视频 | 伊人色综合久久天天 | 日韩在线视频免费观看 | 久久久噜噜噜www成人 | 可以看的黄色网 | av射进来 | 97在线观视频免费观看 | 国产高清视频一区 | 久久久男人天堂 | 99久久国产宗和精品1上映 | 亚洲色图综合 | 美女av一区二区 | 一区二区精品视频 | 日本欧美色图 | 欧美日本在线播放 | 亚洲欧美日韩精品在线 | 日韩精品极品视频免费观看 | 中文字幕日本一区 | 17c精品麻豆一区二区免费 | 强行挺进白丝老师里呻吟 | 久久久久久久九九九九 | 91精品综合久久久久久 | 欧美被狂躁喷白浆精品 | 国产欧美日韩精品一区 | 国产精品三级在线观看 | 骚av在线| 成人免费在线视频 | 亚洲精品电影 | 亚洲喷潮| 一区二区三区四区在线免费观看 | 特黄aaaaaaaaa真人毛片 | 伊伊综合网 | 女人扒开屁股让我添 | 亚洲色成人一区二区三区小说 | 麻豆人妻少妇精品无码专区 | 密桃av在线| 婷婷久久精品 | 亚洲精品乱码久久久久久按摩观 | 日本少妇电影 | 国产精品蜜 | 美女免费看片 | 精品动漫一区二区三区的观看方式 | 亚洲三级小说 | 婷婷丁香视频 |