YOLOv3中darknet的各种层的说明
激活函數(shù):
很多層里面有 activation 這一項(xiàng),這是激活函數(shù),我看到的配置文件里面最常用的就3個(gè): LINEAR:啥都不干 RELU :值 > 0時(shí)保持不變,小于0時(shí)置0 LEAKY :值 > 0時(shí)保持不變,小于0時(shí)值 * 0.1 (類(lèi)似于caffe的prelu層)卷積層:
[convolutional] filters=96 # 輸出blob通道數(shù) size=11 # 卷積核尺寸 (長(zhǎng)寬相同),等價(jià)于caffe里面的kernel_w, kernel_h stride=4 # 移動(dòng)步長(zhǎng) pad=0 # 是否在邊緣補(bǔ) 0 最終的padding為size/2(當(dāng)pad = 1) activation=relu # Relu 激活函數(shù)shortcut 層:
類(lèi)似于caffe 的 eltwise 層(add),也就是把兩個(gè)c h w都相同的兩個(gè)層相加成一個(gè)相同c h w的層。??????[shortcut]from=-3 #和往前數(shù)第三個(gè)層相加 activation=linearroute 層:
route layer層主要是把對(duì)應(yīng)的層連接在一起,在darknet 網(wǎng)絡(luò)結(jié)構(gòu)中,要求輸入層對(duì)應(yīng)的width、height必須相等,如果不相等,則把route layer層的輸出w,h,c都設(shè)置為0。例如輸入層1:26*26*256 輸入層2:26*26*128 則route layer輸出為:26*26*(256+128) 它具有可以具有一個(gè)或兩個(gè)值的屬性層。當(dāng)屬性只有一個(gè)值時(shí),它會(huì)輸出由該值索引的網(wǎng)絡(luò)層的特征圖。類(lèi)似于caffe的concat層。
[route]
layers = -1, 61
upsample 層:
上采樣,功能類(lèi)似最鄰近差值縮放算法
???????[upsample]
stride=2
yolo層(YOLOV3新增的層):???????
[yolo]
mask = 0,1,2 #當(dāng)前屬于第幾個(gè)預(yù)選框
anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326 #預(yù)選框, 將樣本通過(guò)k-means算法計(jì)算出來(lái)的值
classes=80 #網(wǎng)絡(luò)需要識(shí)別的物體種類(lèi)數(shù)
num=9 #預(yù)選框的個(gè)數(shù),即anchors總數(shù)
jitter=.3 #通過(guò)抖動(dòng)增加噪聲來(lái)抑制過(guò)擬合
ignore_thresh = .7
truth_thresh = 1
random=1 #設(shè)置為0,表示關(guān)閉多尺度訓(xùn)練(顯存小可以設(shè)置0)
總結(jié)
以上是生活随笔為你收集整理的YOLOv3中darknet的各种层的说明的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 深度学习数学相关知识
- 下一篇: liblapack.so.3: unde