日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

Caffe学习系列(2):数据层及参数

發(fā)布時間:2025/3/21 85 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Caffe学习系列(2):数据层及参数 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

要運(yùn)行caffe,需要先創(chuàng)建一個模型(model),如比較常用的Lenet,Alex等, 而一個模型由多個屋(layer)構(gòu)成,每一屋又由許多參數(shù)組成。所有的參數(shù)都定義在caffe.proto這個文件中。要熟練使用caffe,最重要的就是學(xué)會配置文件(prototxt)的編寫。

層有很多種類型,比如Data,Convolution,Pooling等,層之間的數(shù)據(jù)流動是以Blobs的方式進(jìn)行。

今天我們就先介紹一下數(shù)據(jù)層.

數(shù)據(jù)層是每個模型的最底層,是模型的入口,不僅提供數(shù)據(jù)的輸入,也提供數(shù)據(jù)從Blobs轉(zhuǎn)換成別的格式進(jìn)行保存輸出。通常數(shù)據(jù)的預(yù)處理(如減去均值, 放大縮小, 裁剪和鏡像等),也在這一層設(shè)置參數(shù)實現(xiàn)。

數(shù)據(jù)來源可以來自高效的數(shù)據(jù)庫(如LevelDB和LMDB),也可以直接來自于內(nèi)存。如果不是很注重效率的話,數(shù)據(jù)也可來自磁盤的hdf5文件和圖片格式文件。

所有的數(shù)據(jù)層的都具有的公用參數(shù):先看示例

?

layer {name: "cifar"type: "Data"top: "data"top: "label"include {phase: TRAIN}transform_param {mean_file: "examples/cifar10/mean.binaryproto"}data_param {source: "examples/cifar10/cifar10_train_lmdb"batch_size: 100backend: LMDB} }

?

?

name: 表示該層的名稱,可隨意取

?

type: 層類型,如果是Data,表示數(shù)據(jù)來源于LevelDB或LMDB。根據(jù)數(shù)據(jù)的來源不同,數(shù)據(jù)層的類型也不同(后面會詳細(xì)闡述)。一般在練習(xí)的時候,我們都是采 ? ? ? ? 用的LevelDB或LMDB數(shù)據(jù),因此層類型設(shè)置為Data。

?

top或bottom: 每一層用bottom來輸入數(shù)據(jù),用top來輸出數(shù)據(jù)。如果只有top沒有bottom,則此層只有輸出,沒有輸入。反之亦然。如果有多個 top或多個 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? bottom,表示有多個blobs數(shù)據(jù)的輸入和輸出。

?

data 與 label: 在數(shù)據(jù)層中,至少有一個命名為data的top。如果有第二個top,一般命名為label。 這種(data,label)配對是分類模型所必需的。

?

include: 一般訓(xùn)練的時候和測試的時候,模型的層是不一樣的。該層(layer)是屬于訓(xùn)練階段的層,還是屬于測試階段的層,需要用include來指定。如果沒有 ? ? ? ? ? ? ? ? ? ? include參數(shù),則表示該層既在訓(xùn)練模型中,又在測試模型中。

Transformations: 數(shù)據(jù)的預(yù)處理,可以將數(shù)據(jù)變換到定義的范圍內(nèi)。如設(shè)置scale為0.00390625,實際上就是1/255,?即將輸入數(shù)據(jù)由0-255歸一化到0-1之間

?

其它的數(shù)據(jù)預(yù)處理也在這個地方設(shè)置:

transform_param {scale: 0.00390625mean_file_size: "examples/cifar10/mean.binaryproto"# 用一個配置文件來進(jìn)行均值操作mirror: 1 # 1表示開啟鏡像,0表示關(guān)閉,也可用ture和false來表示# 剪裁一個 227*227的圖塊,在訓(xùn)練階段隨機(jī)剪裁,在測試階段從中間裁剪crop_size: 227}

后面的data_param部分,就是根據(jù)數(shù)據(jù)的來源不同,來進(jìn)行不同的設(shè)置。

1、數(shù)據(jù)來自于數(shù)據(jù)庫(如LevelDB和LMDB)

? 層類型(layer type):Data

必須設(shè)置的參數(shù):

? source: 包含數(shù)據(jù)庫的目錄名稱,如examples/mnist/mnist_train_lmdb

? batch_size: 每次處理的數(shù)據(jù)個數(shù),如64

可選的參數(shù):

? rand_skip: 在開始的時候,路過某個數(shù)據(jù)的輸入。通常對異步的SGD很有用。

? backend: 選擇是采用LevelDB還是LMDB, 默認(rèn)是LevelDB.

示例:

layer {name: "mnist"type: "Data"top: "data"top: "label"include {phase: TRAIN}transform_param {scale: 0.00390625}data_param {source: "examples/mnist/mnist_train_lmdb"batch_size: 64backend: LMDB} }

2、數(shù)據(jù)來自于內(nèi)存

層類型:MemoryData

必須設(shè)置的參數(shù):

?batch_size:每一次處理的數(shù)據(jù)個數(shù),比如2

?channels:通道數(shù)

? height:高度

? ?width: 寬度

示例:

?

layer {top: "data"top: "label"name: "memory_data"type: "MemoryData"memory_data_param{batch_size: 2height: 100width: 100channels: 1}transform_param {scale: 0.0078125mean_file: "mean.proto"mirror: false} }

?

3、數(shù)據(jù)來自于HDF5

層類型:HDF5Data

必須設(shè)置的參數(shù):

source: 讀取的文件名稱

batch_size: 每一次處理的數(shù)據(jù)個數(shù)

示例:

layer {name: "data"type: "HDF5Data"top: "data"top: "label"hdf5_data_param {source: "examples/hdf5_classification/data/train.txt"batch_size: 10} }

4、數(shù)據(jù)來自于圖片

層類型:ImageData

必須設(shè)置的參數(shù):

? source: 一個文本文件的名字,每一行給定一個圖片文件的名稱和標(biāo)簽(label)

? batch_size: 每一次處理的數(shù)據(jù)個數(shù),即圖片數(shù)

可選參數(shù):

? rand_skip:?在開始的時候,路過某個數(shù)據(jù)的輸入。通常對異步的SGD很有用。

? shuffle: 隨機(jī)打亂順序,默認(rèn)值為false

? new_height,new_width: 如果設(shè)置,則將圖片進(jìn)行resize

?示例:

layer {name: "data"type: "ImageData"top: "data"top: "label"transform_param {mirror: falsecrop_size: 227mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"}image_data_param {source: "examples/_temp/file_list.txt"batch_size: 50new_height: 256new_width: 256} }

5、數(shù)據(jù)來源于Windows

層類型:WindowData

必須設(shè)置的參數(shù):

? source: 一個文本文件的名字

? batch_size: 每一次處理的數(shù)據(jù)個數(shù),即圖片數(shù)

示例:

layer {name: "data"type: "WindowData"top: "data"top: "label"include {phase: TRAIN}transform_param {mirror: truecrop_size: 227mean_file: "data/ilsvrc12/imagenet_mean.binaryproto"}window_data_param {source: "examples/finetune_pascal_detection/window_file_2007_trainval.txt"batch_size: 128fg_threshold: 0.5bg_threshold: 0.5fg_fraction: 0.25context_pad: 16crop_mode: "warp"} }

?

總結(jié)

以上是生活随笔為你收集整理的Caffe学习系列(2):数据层及参数的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。