keras中文版官方文档
發(fā)現(xiàn)一個(gè)比較好的介紹Keras的中文版的文檔,原文鏈接:
https://keras-cn.readthedocs.io/en/latest/getting_started/sequential_model/
以下內(nèi)容是目前個(gè)人所看,詳細(xì)內(nèi)容看原文鏈接。
keras是一個(gè)高層神經(jīng)網(wǎng)絡(luò)API,由純Python編寫而成并基tensorflow、Theano以及CNTK后端。
快速開始序慣(Sequential)模型:
序貫?zāi)P褪嵌鄠€(gè)網(wǎng)絡(luò)層的線性堆疊,也就是“一條路走到黑”。
?
指定輸入數(shù)據(jù)的shape:
- 傳遞一個(gè)input_shape的關(guān)鍵字參數(shù)給第一層,input_shape是一個(gè)tuple類型的數(shù)據(jù),其中也可以填入None,如果填入None則表示此位置可能是任何正整數(shù)。數(shù)據(jù)的batch大小不應(yīng)包含在其中。
- 有些2D層,如Dense,支持通過指定其輸入維度input_dim來隱含的指定輸入數(shù)據(jù)shape,是一個(gè)Int類型的數(shù)據(jù)。一些3D的時(shí)域?qū)又С滞ㄟ^參數(shù)input_dim和input_length來指定輸入shape。
- 如果你需要為輸入指定一個(gè)固定大小的batch_size(常用于stateful RNN網(wǎng)絡(luò)),可以傳遞batch_size參數(shù)到一個(gè)層中,例如你想指定輸入張量的batch大小是32,數(shù)據(jù)shape是(6,8),則你需要傳遞batch_size=32和input_shape=(6,8)。
編譯:
compile接受三個(gè)參數(shù):優(yōu)化器,損失函數(shù),指標(biāo)列表metrics
- 優(yōu)化器optimizer:該參數(shù)可指定為已預(yù)定義的優(yōu)化器名,如rmsprop、adagrad,或一個(gè)Optimizer類的對象,詳情見optimizers
- 損失函數(shù)loss:該參數(shù)為模型試圖最小化的目標(biāo)函數(shù),它可為預(yù)定義的損失函數(shù)名,如categorical_crossentropy、mse,也可以為一個(gè)損失函數(shù)。詳情見losses
- 指標(biāo)列表metrics:對分類問題,我們一般將該列表設(shè)置為metrics=['accuracy']。指標(biāo)可以是一個(gè)預(yù)定義指標(biāo)的名字,也可以是一個(gè)用戶定制的函數(shù).指標(biāo)函數(shù)應(yīng)該返回單個(gè)張量,或一個(gè)完成metric_name - > metric_value映射的字典.請參考性能評估
訓(xùn)練:訓(xùn)練模型一般使用fit函數(shù)。
常用層:常用層對應(yīng)于core模塊,core內(nèi)部定義了一系列常用的網(wǎng)絡(luò)層,包括全連接層、激活層等。
Dense層(全連接層):
所實(shí)現(xiàn)的運(yùn)算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素計(jì)算的激活函數(shù),kernel是本層的權(quán)值矩陣,bias為偏置向量,只有當(dāng)use_bias=True才會(huì)添加。
如果本層的輸入數(shù)據(jù)的維度大于2,則會(huì)先被壓為與kernel相匹配的大小。
Dropout層:
Dropout將在訓(xùn)練過程中每次更新參數(shù)時(shí)按一定概率(rate)隨機(jī)斷開輸入神經(jīng)元,Dropout層用于防止過擬合。
Flatten層:
用來將輸入“壓平”,即把多維的輸入一維化,常用在從卷積層到全連接層的過渡。Flatten不影響和batch的大小。
reshape層
Permute層:當(dāng)需要將RNN和CNN網(wǎng)絡(luò)連接的時(shí)候,可能會(huì)用到該層。
RepeatVector層
repeatvector層將輸入重復(fù)n次
總結(jié)
以上是生活随笔為你收集整理的keras中文版官方文档的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 结构体的一些形式理解
- 下一篇: 【Keras中文文档】Layer Con