4.9 总结-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授
| 4.8 這和大腦有什么關(guān)系 | 回到目錄 | 1.1 訓(xùn)練/開發(fā)/測試集 (第二課) |
總結(jié)
習(xí)題
第 31 題
在我們的前向傳播和后向傳播實現(xiàn)中使用的“緩存”是什么?
A.它用于在訓(xùn)練期間緩存成本函數(shù)的中間值。
B.我們用它將在正向傳播過程中計算的變量傳遞到相應(yīng)的反向傳播步驟。它包含了反向傳播計算導(dǎo)數(shù)的有用值。
C.它用于跟蹤我們正在搜索的超參數(shù),以加快計算速度。
D.我們用它將反向傳播過程中計算的變量傳遞到相應(yīng)的正向傳播步驟。它包含用于計算正向傳播的激活的有用值。
第 32 題
以下哪些是“超參數(shù)”?(選出所有正確項)
A.隱藏層規(guī)模 n[l]n^{[l]}n[l]
B.神經(jīng)網(wǎng)絡(luò)的層數(shù) LLL
C.激活向量 a[l]a^{[l]}a[l]
D.權(quán)重矩陣 W[l]W^{[l]}W[l]
E.學(xué)習(xí)率 α\alphaα
F.迭代次數(shù)
G.偏置向量 b[l]b^{[l]}b[l]
第 33 題
下列哪個說法是正確的?
A.神經(jīng)網(wǎng)絡(luò)的更深層通常比前面的層計算更復(fù)雜的特征
B.神經(jīng)網(wǎng)絡(luò)的前面的層通常比更深層計算更復(fù)雜的特性
第 34 題
向量化允許您在L層神經(jīng)網(wǎng)絡(luò)中計算前向傳播時,不需要在層 l=1,2,…,Ll = 1, 2, …, Ll=1,2,…,L 間顯式的使用for循環(huán)(或任何其他顯式迭代循環(huán))
A.對 B.不對
第 35 題
假設(shè)我們將 n[l]n^{[l]}n[l] 的值存儲在名為 layerslayerslayers 的數(shù)組中,如下所示: layer_dims=[nx,4,3,2,1]layer\_dims = [n_x, 4, 3, 2, 1]layer_dims=[nx?,4,3,2,1] 。 因此,第1層有4個隱藏單元,第2層有3個隱藏單元,依此類推。 您可以使用哪個for循環(huán)初始化模型參數(shù)?
A.
for(i in range(1, len(layer_dims/2))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01B.
for(i in range(1, len(layer_dims/2))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i-1], 1) * 0.01C.
for(i in range(1, len(layer_dims))):parameter[‘W’ + str(i)] = np.random.randn(layers[i-1], layers[i])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01D.
for(i in range(1, len(layer_dims))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01第 36 題
考慮以下神經(jīng)網(wǎng)絡(luò):
該神經(jīng)網(wǎng)絡(luò)有幾層?
A.層數(shù) LLL 是4,隱藏層數(shù)是3
B.層數(shù) LLL 是3,隱藏層數(shù)是3
C.層數(shù) LLL 是4,隱藏層數(shù)是4
D.層數(shù) LLL 是5,隱藏層數(shù)是4
第 37 題
在前向傳播期間,在層 lll 的前向傳播函數(shù)中,您需要知道 lll 層中的激活函數(shù)(Sigmoid,tanh,ReLU等)是什么。在反向傳播期間,相應(yīng)的反向傳播函數(shù)也需要知道第 lll 層的激活函數(shù)是什么,因為梯度是根據(jù)它來計算的
A.對 B.不對
第 38 題
有一些函數(shù)具有以下特性:
(i) 當(dāng)使用淺網(wǎng)絡(luò)計算時,需要一個大網(wǎng)絡(luò)(我們通過網(wǎng)絡(luò)中的邏輯門數(shù)量來度量大小),但是(ii)當(dāng)使用深網(wǎng)絡(luò)來計算時,我們只需要一個指數(shù)級小的網(wǎng)絡(luò)
A.對 B.不對
第 39 題
在以下2層隱藏層的神經(jīng)網(wǎng)絡(luò)中,以下哪句話是正確的?
A. W[1]W^{[1]}W[1] 的形狀是 (4, 4)
B. b[1]b^{[1]}b[1] 的形狀是 (4, 1)
C. W[2]W^{[2]}W[2] 的形狀是 (3, 4)
D. b[2]b^{[2]}b[2] 的形狀是 (3, 1)
E. W[3]W^{[3]}W[3] 的形狀是 (1, 1)
F. b[3]b^{[3]}b[3] 的形狀是 (1, 3)
第 40 題
前面的問題使用了一個特定的網(wǎng)絡(luò),一般情況下,層 lll 的權(quán)重矩陣 W[l]W^{[l]}W[l] 的維數(shù)是多少?
A. W[l]W^{[l]}W[l] 的形狀是 (n[l],n[l?1])(n^{[l]},n^{[l-1]})(n[l],n[l?1])
B. W[l]W^{[l]}W[l] 的形狀是 (n[l?1],n[l])(n^{[l-1]},n^{[l]})(n[l?1],n[l])
C. W[l]W^{[l]}W[l] 的形狀是 (n[l+1],n[l])(n^{[l+1]},n^{[l]})(n[l+1],n[l])
D. W[l]W^{[l]}W[l] 的形狀是 (n[l],n[l+1])(n^{[l]},n^{[l+1]})(n[l],n[l+1])
31-40題 答案
31.B 32.ABEF 33.A 34.B 35.D 36.A 37.A 38.A 39.ABCD 40.A
| 4.8 這和大腦有什么關(guān)系 | 回到目錄 | 1.1 訓(xùn)練/開發(fā)/測試集 (第二課) |
總結(jié)
以上是生活随笔為你收集整理的4.9 总结-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 4.8 这和大脑有什么关系-深度学习第一
- 下一篇: 深度学习- Dropout 稀疏化原理解