日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

keras中文版官方文档

發(fā)布時(shí)間:2023/12/20 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 keras中文版官方文档 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

發(fā)現(xiàn)一個(gè)比較好的介紹Keras的中文版的文檔,原文鏈接:

https://keras-cn.readthedocs.io/en/latest/getting_started/sequential_model/

以下內(nèi)容是目前個(gè)人所看,詳細(xì)內(nèi)容看原文鏈接。

keras是一個(gè)高層神經(jīng)網(wǎng)絡(luò)API,由純Python編寫而成并基tensorflow、Theano以及CNTK后端。

快速開始序慣(Sequential)模型:

序貫?zāi)P褪嵌鄠€(gè)網(wǎng)絡(luò)層的線性堆疊,也就是“一條路走到黑”。

?

指定輸入數(shù)據(jù)的shape

  • 傳遞一個(gè)input_shape的關(guān)鍵字參數(shù)給第一層,input_shape是一個(gè)tuple類型的數(shù)據(jù),其中也可以填入None,如果填入None則表示此位置可能是任何正整數(shù)。數(shù)據(jù)的batch大小不應(yīng)包含在其中。
  • 有些2D層,如Dense,支持通過指定其輸入維度input_dim來隱含的指定輸入數(shù)據(jù)shape,是一個(gè)Int類型的數(shù)據(jù)。一些3D的時(shí)域?qū)又С滞ㄟ^參數(shù)input_diminput_length來指定輸入shape。
  • 如果你需要為輸入指定一個(gè)固定大小的batch_size(常用于stateful RNN網(wǎng)絡(luò)),可以傳遞batch_size參數(shù)到一個(gè)層中,例如你想指定輸入張量的batch大小是32,數(shù)據(jù)shape是(6,8),則你需要傳遞batch_size=32input_shape=(6,8)

編譯:

compile接受三個(gè)參數(shù):優(yōu)化器,損失函數(shù),指標(biāo)列表metrics

  • 優(yōu)化器optimizer:該參數(shù)可指定為已預(yù)定義的優(yōu)化器名,如rmspropadagrad,或一個(gè)Optimizer類的對象,詳情見optimizers
  • 損失函數(shù)loss:該參數(shù)為模型試圖最小化的目標(biāo)函數(shù),它可為預(yù)定義的損失函數(shù)名,如categorical_crossentropymse,也可以為一個(gè)損失函數(shù)。詳情見losses
  • 指標(biāo)列表metrics:對分類問題,我們一般將該列表設(shè)置為metrics=['accuracy']。指標(biāo)可以是一個(gè)預(yù)定義指標(biāo)的名字,也可以是一個(gè)用戶定制的函數(shù).指標(biāo)函數(shù)應(yīng)該返回單個(gè)張量,或一個(gè)完成metric_name - > metric_value映射的字典.請參考性能評估

訓(xùn)練:訓(xùn)練模型一般使用fit函數(shù)。

常用層:常用層對應(yīng)于core模塊,core內(nèi)部定義了一系列常用的網(wǎng)絡(luò)層,包括全連接層、激活層等。

Dense層(全連接層):

所實(shí)現(xiàn)的運(yùn)算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素計(jì)算的激活函數(shù),kernel是本層的權(quán)值矩陣,bias為偏置向量,只有當(dāng)use_bias=True才會(huì)添加。

如果本層的輸入數(shù)據(jù)的維度大于2,則會(huì)先被壓為與kernel相匹配的大小。

Dropout層:

Dropout將在訓(xùn)練過程中每次更新參數(shù)時(shí)按一定概率(rate)隨機(jī)斷開輸入神經(jīng)元,Dropout層用于防止過擬合。

Flatten層:

用來將輸入“壓平”,即把多維的輸入一維化,常用在從卷積層到全連接層的過渡。Flatten不影響和batch的大小。

reshape層

Permute層:當(dāng)需要將RNN和CNN網(wǎng)絡(luò)連接的時(shí)候,可能會(huì)用到該層。

RepeatVector層

repeatvector層將輸入重復(fù)n次

總結(jié)

以上是生活随笔為你收集整理的keras中文版官方文档的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。