日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

4.9 总结-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授

發(fā)布時間:2025/4/5 pytorch 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 4.9 总结-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

←上一篇↓↑下一篇→
4.8 這和大腦有什么關(guān)系回到目錄1.1 訓(xùn)練/開發(fā)/測試集 (第二課)

總結(jié)

習(xí)題

第 31 題

在我們的前向傳播和后向傳播實現(xiàn)中使用的“緩存”是什么?

A.它用于在訓(xùn)練期間緩存成本函數(shù)的中間值。

B.我們用它將在正向傳播過程中計算的變量傳遞到相應(yīng)的反向傳播步驟。它包含了反向傳播計算導(dǎo)數(shù)的有用值。

C.它用于跟蹤我們正在搜索的超參數(shù),以加快計算速度。

D.我們用它將反向傳播過程中計算的變量傳遞到相應(yīng)的正向傳播步驟。它包含用于計算正向傳播的激活的有用值。

第 32 題

以下哪些是“超參數(shù)”?(選出所有正確項)

A.隱藏層規(guī)模 n[l]n^{[l]}n[l]

B.神經(jīng)網(wǎng)絡(luò)的層數(shù) LLL

C.激活向量 a[l]a^{[l]}a[l]

D.權(quán)重矩陣 W[l]W^{[l]}W[l]

E.學(xué)習(xí)率 α\alphaα

F.迭代次數(shù)

G.偏置向量 b[l]b^{[l]}b[l]

第 33 題

下列哪個說法是正確的?

A.神經(jīng)網(wǎng)絡(luò)的更深層通常比前面的層計算更復(fù)雜的特征

B.神經(jīng)網(wǎng)絡(luò)的前面的層通常比更深層計算更復(fù)雜的特性

第 34 題

向量化允許您在L層神經(jīng)網(wǎng)絡(luò)中計算前向傳播時,不需要在層 l=1,2,…,Ll = 1, 2, …, Ll=1,2,,L 間顯式的使用for循環(huán)(或任何其他顯式迭代循環(huán))

A.對 B.不對

第 35 題

假設(shè)我們將 n[l]n^{[l]}n[l] 的值存儲在名為 layerslayerslayers 的數(shù)組中,如下所示: layer_dims=[nx,4,3,2,1]layer\_dims = [n_x, 4, 3, 2, 1]layer_dims=[nx?,4,3,2,1] 。 因此,第1層有4個隱藏單元,第2層有3個隱藏單元,依此類推。 您可以使用哪個for循環(huán)初始化模型參數(shù)?

A.

for(i in range(1, len(layer_dims/2))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

B.

for(i in range(1, len(layer_dims/2))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i-1], 1) * 0.01

C.

for(i in range(1, len(layer_dims))):parameter[‘W’ + str(i)] = np.random.randn(layers[i-1], layers[i])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

D.

for(i in range(1, len(layer_dims))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01

第 36 題

考慮以下神經(jīng)網(wǎng)絡(luò):

該神經(jīng)網(wǎng)絡(luò)有幾層?

A.層數(shù) LLL 是4,隱藏層數(shù)是3

B.層數(shù) LLL 是3,隱藏層數(shù)是3

C.層數(shù) LLL 是4,隱藏層數(shù)是4

D.層數(shù) LLL 是5,隱藏層數(shù)是4

第 37 題

在前向傳播期間,在層 lll 的前向傳播函數(shù)中,您需要知道 lll 層中的激活函數(shù)(Sigmoid,tanh,ReLU等)是什么。在反向傳播期間,相應(yīng)的反向傳播函數(shù)也需要知道第 lll 層的激活函數(shù)是什么,因為梯度是根據(jù)它來計算的

A.對 B.不對

第 38 題

有一些函數(shù)具有以下特性:

(i) 當(dāng)使用淺網(wǎng)絡(luò)計算時,需要一個大網(wǎng)絡(luò)(我們通過網(wǎng)絡(luò)中的邏輯門數(shù)量來度量大小),但是(ii)當(dāng)使用深網(wǎng)絡(luò)來計算時,我們只需要一個指數(shù)級小的網(wǎng)絡(luò)

A.對 B.不對

第 39 題

在以下2層隱藏層的神經(jīng)網(wǎng)絡(luò)中,以下哪句話是正確的?

A. W[1]W^{[1]}W[1] 的形狀是 (4, 4)

B. b[1]b^{[1]}b[1] 的形狀是 (4, 1)

C. W[2]W^{[2]}W[2] 的形狀是 (3, 4)

D. b[2]b^{[2]}b[2] 的形狀是 (3, 1)

E. W[3]W^{[3]}W[3] 的形狀是 (1, 1)

F. b[3]b^{[3]}b[3] 的形狀是 (1, 3)

第 40 題

前面的問題使用了一個特定的網(wǎng)絡(luò),一般情況下,層 lll 的權(quán)重矩陣 W[l]W^{[l]}W[l] 的維數(shù)是多少?

A. W[l]W^{[l]}W[l] 的形狀是 (n[l],n[l?1])(n^{[l]},n^{[l-1]})(n[l],n[l?1])
B. W[l]W^{[l]}W[l] 的形狀是 (n[l?1],n[l])(n^{[l-1]},n^{[l]})(n[l?1],n[l])
C. W[l]W^{[l]}W[l] 的形狀是 (n[l+1],n[l])(n^{[l+1]},n^{[l]})(n[l+1],n[l])
D. W[l]W^{[l]}W[l] 的形狀是 (n[l],n[l+1])(n^{[l]},n^{[l+1]})(n[l],n[l+1])

31-40題 答案

31.B 32.ABEF 33.A 34.B 35.D 36.A 37.A 38.A 39.ABCD 40.A


←上一篇↓↑下一篇→
4.8 這和大腦有什么關(guān)系回到目錄1.1 訓(xùn)練/開發(fā)/測試集 (第二課)

總結(jié)

以上是生活随笔為你收集整理的4.9 总结-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。