1.15 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
| 1.14 關(guān)于梯度檢驗(yàn)實(shí)現(xiàn)的注記 | 回到目錄 | 2.1 Mini-batch 梯度下降 |
總結(jié)
第 41 題
如果你有10,000,000個(gè)例子,你會(huì)如何劃分訓(xùn)練/開(kāi)發(fā)/測(cè)試集?
A.33%訓(xùn)練,33%開(kāi)發(fā),33%測(cè)試
B.60%訓(xùn)練,20%開(kāi)發(fā),20%測(cè)試
C.98%訓(xùn)練,1%開(kāi)發(fā),20%測(cè)試
第 42 題
開(kāi)發(fā)和測(cè)試集應(yīng)該:
A.來(lái)自同一分布
B.來(lái)自不同分布
C.完全相同(一樣的(x, y)對(duì))
D.數(shù)據(jù)數(shù)量應(yīng)該相同
第 43 題
如果你的神經(jīng)網(wǎng)絡(luò)方差很高,下列哪個(gè)嘗試是可能解決問(wèn)題的?
A.添加正則項(xiàng)
B.獲取更多測(cè)試數(shù)據(jù)
C.增加每個(gè)隱藏層的神經(jīng)元數(shù)量
D.用更深的神經(jīng)網(wǎng)絡(luò)
E.用更多的訓(xùn)練數(shù)據(jù)
第 44 題
你正在為蘋(píng)果,香蕉和橘子制作分類器。 假設(shè)您的分類器在訓(xùn)練集上有0.5%的錯(cuò)誤,以及開(kāi)發(fā)集上有7%的錯(cuò)誤。 以下哪項(xiàng)嘗試是有希望改善你的分類器的分類效果的?
A.增大正則化參數(shù) λ\lambdaλ
B.減小正則化參數(shù) λ\lambdaλ
C.獲取更多訓(xùn)練數(shù)據(jù)
D.用更大的神經(jīng)網(wǎng)絡(luò)
第 45 題
什么是權(quán)重衰減?
A.正則化技術(shù)(例如L2正則化)導(dǎo)致梯度下降在每次迭代時(shí)權(quán)重收縮
B.在訓(xùn)練過(guò)程中逐漸降低學(xué)習(xí)率的過(guò)程
C.如果神經(jīng)網(wǎng)絡(luò)是在噪聲數(shù)據(jù)下訓(xùn)練的,那么神經(jīng)網(wǎng)絡(luò)的權(quán)值會(huì)逐漸損壞
D.通過(guò)對(duì)權(quán)重值設(shè)置上限來(lái)避免梯度消失的技術(shù)
第 46 題
當(dāng)你增大正則化的超參數(shù) λ\lambdaλ 時(shí)會(huì)發(fā)生什么?
A.權(quán)重變小(接近0)
B.重量變大(遠(yuǎn)離0)
C.2倍的 λ\lambdaλ 導(dǎo)致2倍的權(quán)重
D.每次迭代,梯度下降采取更大的步距(與 λ\lambdaλ 成正比)
第 47 題
在測(cè)試時(shí)候使用dropout:
A.不隨機(jī)關(guān)閉神經(jīng)元,但保留1/keep_brob因子
B.隨機(jī)關(guān)閉神經(jīng)元,保留1/keep_brob因子
C.隨機(jī)關(guān)閉神經(jīng)元,但不保留1/keep_brob因子
D.不隨機(jī)關(guān)閉神經(jīng)元,也不保留1/keep_brob因子
第 48 題
將參數(shù)keep_prob從(比如說(shuō))0.5增加到0.6可能會(huì)導(dǎo)致以下情況(選出所有正確項(xiàng)):
A.正則化效應(yīng)被增強(qiáng)
B.正則化效應(yīng)被減弱
C.訓(xùn)練集的誤差會(huì)增加
D.訓(xùn)練集的誤差會(huì)減小
第 49 題
以下哪些技術(shù)可用于減少方差(減少過(guò)擬合)?(選出所有正確項(xiàng))
A.梯度消失
B.數(shù)據(jù)擴(kuò)充
C.Dropout
D.梯度檢查
E.Xavier初始化
F.L2正則化
G.梯度爆炸
第 50 題
為什么要對(duì)輸入 xxx 進(jìn)行正則化?
A.讓參數(shù)初始化更快
B.讓代價(jià)函數(shù)更快地優(yōu)化
C.更容易做數(shù)據(jù)可視化
D.是另一種正則化——有助減少方差
41-50題 答案
41.C 42.A 43.AE 44.AC 45.A 46.A 47.D 48.BD 49.BCF 50.B
| 1.14 關(guān)于梯度檢驗(yàn)實(shí)現(xiàn)的注記 | 回到目錄 | 2.1 Mini-batch 梯度下降 |
總結(jié)
以上是生活随笔為你收集整理的1.15 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 1.14 梯度检验应用的注意事项-深度学
- 下一篇: 2.1 Mini-batch 梯度下降-