日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > pytorch >内容正文

pytorch

1.15 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授

發(fā)布時(shí)間:2025/4/5 pytorch 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 1.15 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

←上一篇↓↑下一篇→
1.14 關(guān)于梯度檢驗(yàn)實(shí)現(xiàn)的注記回到目錄2.1 Mini-batch 梯度下降

總結(jié)

第 41 題

如果你有10,000,000個(gè)例子,你會(huì)如何劃分訓(xùn)練/開(kāi)發(fā)/測(cè)試集?

A.33%訓(xùn)練,33%開(kāi)發(fā),33%測(cè)試

B.60%訓(xùn)練,20%開(kāi)發(fā),20%測(cè)試

C.98%訓(xùn)練,1%開(kāi)發(fā),20%測(cè)試

第 42 題

開(kāi)發(fā)和測(cè)試集應(yīng)該:

A.來(lái)自同一分布

B.來(lái)自不同分布

C.完全相同(一樣的(x, y)對(duì))

D.數(shù)據(jù)數(shù)量應(yīng)該相同

第 43 題

如果你的神經(jīng)網(wǎng)絡(luò)方差很高,下列哪個(gè)嘗試是可能解決問(wèn)題的?

A.添加正則項(xiàng)

B.獲取更多測(cè)試數(shù)據(jù)

C.增加每個(gè)隱藏層的神經(jīng)元數(shù)量

D.用更深的神經(jīng)網(wǎng)絡(luò)

E.用更多的訓(xùn)練數(shù)據(jù)

第 44 題

你正在為蘋(píng)果,香蕉和橘子制作分類器。 假設(shè)您的分類器在訓(xùn)練集上有0.5%的錯(cuò)誤,以及開(kāi)發(fā)集上有7%的錯(cuò)誤。 以下哪項(xiàng)嘗試是有希望改善你的分類器的分類效果的?

A.增大正則化參數(shù) λ\lambdaλ

B.減小正則化參數(shù) λ\lambdaλ

C.獲取更多訓(xùn)練數(shù)據(jù)

D.用更大的神經(jīng)網(wǎng)絡(luò)

第 45 題

什么是權(quán)重衰減?

A.正則化技術(shù)(例如L2正則化)導(dǎo)致梯度下降在每次迭代時(shí)權(quán)重收縮

B.在訓(xùn)練過(guò)程中逐漸降低學(xué)習(xí)率的過(guò)程

C.如果神經(jīng)網(wǎng)絡(luò)是在噪聲數(shù)據(jù)下訓(xùn)練的,那么神經(jīng)網(wǎng)絡(luò)的權(quán)值會(huì)逐漸損壞

D.通過(guò)對(duì)權(quán)重值設(shè)置上限來(lái)避免梯度消失的技術(shù)

第 46 題

當(dāng)你增大正則化的超參數(shù) λ\lambdaλ 時(shí)會(huì)發(fā)生什么?

A.權(quán)重變小(接近0)

B.重量變大(遠(yuǎn)離0)

C.2倍的 λ\lambdaλ 導(dǎo)致2倍的權(quán)重

D.每次迭代,梯度下降采取更大的步距(與 λ\lambdaλ 成正比)

第 47 題

在測(cè)試時(shí)候使用dropout:

A.不隨機(jī)關(guān)閉神經(jīng)元,但保留1/keep_brob因子

B.隨機(jī)關(guān)閉神經(jīng)元,保留1/keep_brob因子

C.隨機(jī)關(guān)閉神經(jīng)元,但不保留1/keep_brob因子

D.不隨機(jī)關(guān)閉神經(jīng)元,也不保留1/keep_brob因子

第 48 題

將參數(shù)keep_prob從(比如說(shuō))0.5增加到0.6可能會(huì)導(dǎo)致以下情況(選出所有正確項(xiàng)):

A.正則化效應(yīng)被增強(qiáng)

B.正則化效應(yīng)被減弱

C.訓(xùn)練集的誤差會(huì)增加

D.訓(xùn)練集的誤差會(huì)減小

第 49 題

以下哪些技術(shù)可用于減少方差(減少過(guò)擬合)?(選出所有正確項(xiàng))

A.梯度消失

B.數(shù)據(jù)擴(kuò)充

C.Dropout

D.梯度檢查

E.Xavier初始化

F.L2正則化

G.梯度爆炸

第 50 題

為什么要對(duì)輸入 xxx 進(jìn)行正則化?

A.讓參數(shù)初始化更快

B.讓代價(jià)函數(shù)更快地優(yōu)化

C.更容易做數(shù)據(jù)可視化

D.是另一種正則化——有助減少方差

41-50題 答案

41.C 42.A 43.AE 44.AC 45.A 46.A 47.D 48.BD 49.BCF 50.B


←上一篇↓↑下一篇→
1.14 關(guān)于梯度檢驗(yàn)實(shí)現(xiàn)的注記回到目錄2.1 Mini-batch 梯度下降

總結(jié)

以上是生活随笔為你收集整理的1.15 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。