辨别真假数据科学家必备手册:深度学习45个基础问题(附答案)
簡(jiǎn)介
早在2009年,深度學(xué)習(xí)還只是一個(gè)新興領(lǐng)域,只有少數(shù)人認(rèn)為它是一個(gè)多產(chǎn)的研究方向。今天,深度學(xué)習(xí)正在被用來開發(fā)那些過去被認(rèn)為是不可能完成的應(yīng)用。
語音識(shí)別,圖像識(shí)別,數(shù)據(jù)中的模式識(shí)別,照片中的對(duì)象分類,字符文本生成,自動(dòng)駕駛汽車等等只是其中幾個(gè)示例。因此,熟悉深度學(xué)習(xí)及其概念顯得尤為重要。
在這個(gè)測(cè)試中,我們考察了社區(qū)成員的深度學(xué)習(xí)基本概念。總共有1070人參加了這項(xiàng)技能測(cè)試。
如果你錯(cuò)過了這次測(cè)試,下面這些問題就是你檢查自身技能水平的好機(jī)會(huì)。
總體結(jié)果
下面是成績(jī)的分布圖,有助您評(píng)估自己的表現(xiàn)。
你可以在這里獲取到全部的成績(jī),超過200人參加了這項(xiàng)測(cè)試,最高得分是35分。這里是成績(jī)分布的統(tǒng)計(jì)描述:
總體分布
平均分: 16.45
中位數(shù): 20
眾數(shù): 0
看起來很多人很晚才開始比賽,或者只回答了幾個(gè)題目就沒有繼續(xù)下去。我并不知道確切的原因,可能是測(cè)試題目對(duì)大多數(shù)參與者過于困難。
如果你對(duì)這個(gè)現(xiàn)象背后的原因有任何洞見,歡迎聯(lián)系我們。
有用的資源
·Fundamentals of Deep Learning – Starting with Artificial Neural Network(https://www.analyticsvidhya.com/blog/2016/03/introduction-deep-learning-fundamentals-neural-networks/)
·Practical Guide to implementing Neural Networks in Python (using Theano)(https://www.analyticsvidhya.com/blog/2016/04/neural-networks-python-theano/)
·A Complete Guide on Getting Started with Deep Learning in Python(https://www.analyticsvidhya.com/blog/2016/08/deep-learning-path/)
·Tutorial: Optimizing Neural Networks using Keras (with Image recognition case study)(https://www.analyticsvidhya.com/blog/2016/10/tutorial-optimizing-neural-networks-using-keras-with-image-recognition-case-study/)
·An Introduction to Implementing Neural Networks using TensorFlow(https://www.analyticsvidhya.com/blog/2016/10/an-introduction-to-implementing-neural-networks-using-tensorflow/)
題目和答案
神經(jīng)網(wǎng)絡(luò)模型(Neural Network)因受人腦的啟發(fā)而得名。
神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個(gè)神經(jīng)元接受一個(gè)輸入,處理它并給出一個(gè)輸出。這里是一個(gè)真實(shí)的神經(jīng)元的圖解表示。下列關(guān)于神經(jīng)元的陳述中哪一個(gè)是正確的?
一個(gè)神經(jīng)元只有一個(gè)輸入和一個(gè)輸出
一個(gè)神經(jīng)元有多個(gè)輸入和一個(gè)輸出
一個(gè)神經(jīng)元有一個(gè)輸入和多個(gè)輸出
一個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出
上述都正確
答案:(E)
一個(gè)神經(jīng)元可以有一個(gè)或多個(gè)輸入,和一個(gè)或多個(gè)輸出。
2下圖是一個(gè)神經(jīng)元的數(shù)學(xué)表達(dá)
神經(jīng)元的組成部分表示為:
-?????? x1, x2,…, xN:表示神經(jīng)元的輸入。可以是輸入層的實(shí)際觀測(cè)值,也可以是某一個(gè)隱層(Hidden Layer)的中間值
-?????? w1, w2,…,wN:表示每一個(gè)輸入的權(quán)重
-?????? bi:表示偏差單元(bias unit)。作為常數(shù)項(xiàng)加到激活函數(shù)的輸入當(dāng)中,和截距(Intercept)項(xiàng)相似
-?????? a:代表神經(jīng)元的激勵(lì)(Activation),可以表示為
-?????? y:神經(jīng)元輸出
考慮上述標(biāo)注,線性等式(y = mx + c)可以被認(rèn)為是屬于神經(jīng)元嗎:
A.??????? 是
B.??????? 否
答案:(A)
一個(gè)不包含非線性的神經(jīng)元可以看作是線性回歸函數(shù)(Linear Regression Function)。 ?
3假設(shè)在一個(gè)神經(jīng)元上實(shí)現(xiàn)和(AND)函數(shù),下表是和函數(shù)的表述
| X1 | X2 | X1 AND X2 |
| 0 | 0 | 0 |
| 0 | 1 | 0 |
| 1 | 0 | 0 |
| 1 | 1 | 1 |
激活函數(shù)為:
權(quán)重(Weights)和偏差(Bias)哪一組是正確的?
(提示:對(duì)哪一組w1, w2, b神經(jīng)元可以實(shí)現(xiàn)AND函數(shù))
A. Bias = -1.5, w1 = 1, w2 = 1
B. Bias = 1.5, w1 = 2, w2 = 2
C. Bias = 1, w1 = 1.5, w2 = 1.5
D. 以上都不正確
答案:(A)
1. f(-1.5*1 + 1*0 + 1*0) = f(-1.5) = 0
2. f(-1.5*1 + 1*0 + 1*1) = f(-0.5) = 0
3. f(-1.5*1 + 1*1 + 1*0) = f(-0.5) = 0
4. ?f(-1.5*1 + 1*1+ 1*1) = f(0.5) = 1
帶入測(cè)試值,A選項(xiàng)正確
多個(gè)神經(jīng)元堆疊在一起構(gòu)成了神經(jīng)網(wǎng)絡(luò),我們舉一個(gè)例子,用神經(jīng)網(wǎng)絡(luò)模擬同或門(XNOR)。
你可以看見最后一個(gè)神經(jīng)元有兩個(gè)輸入。所有神經(jīng)元的激活函數(shù)是:
假設(shè)X1是0,X2是1,神經(jīng)網(wǎng)絡(luò)的輸出是什么?
0
1
答案:(A)
a1輸出: f(0.5*1 + -1*0 + -1*1) = f(-0.5) = 0
a2輸出: f(-1.5*1 + 1*0 + 1*1) = f(-0.5) = 0
a3輸出: f(-0.5*1 + 1*0 + 1*0) = f(-0.5) = 0
正確答案是A
5在一個(gè)神經(jīng)網(wǎng)絡(luò)里,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,你就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是什么?
隨機(jī)賦值,祈禱它們是正確的
搜索所有權(quán)重和偏差的組合,直到得到最佳值
賦予一個(gè)初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重
以上都不正確
答案:(C)
選項(xiàng)C是對(duì)梯度下降的描述。
6梯度下降算法的正確步驟是什么?
計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差
迭代跟新,直到找到最佳權(quán)重
把輸入傳入網(wǎng)絡(luò),得到輸出值
初始化隨機(jī)權(quán)重和偏差
對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差
A. 1, 2, 3, 4, 5
B. 5, 4, 3, 2, 1
C. 3, 2, 1, 5, 4
D. 4, 3, 1, 5, 2
答案:(D)
選項(xiàng)D是正確的?
7假設(shè)你有輸入x,y,z,值分別是-2,5,-4。你有神經(jīng)元q和f,函數(shù)分別為q = x + y,f = q * z。函數(shù)的圖示如下圖:
F對(duì)x,y和z的梯度分別是?(提示:計(jì)算梯度,你必須找到df/dx, df/dy和df/dz)
A. (-3,4,4)
B. (4,4,3)
C. (-4,-4,3)
D. (3,-4,-4)
答案:(C)
選項(xiàng)C是正確的。
8現(xiàn)在回顧之前的內(nèi)容。我們學(xué)到了:
-?????? 大腦是有很多叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的粗糙的數(shù)學(xué)表達(dá)。
-?????? 每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。
-?????? 神經(jīng)元堆疊起來形成了網(wǎng)絡(luò),用作近似任何函數(shù)。
-?????? 為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型
給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?
加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加
有維度更高的數(shù)據(jù)
當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)
以上都不正確
答案:(A)
更多層意味著網(wǎng)絡(luò)更深。沒有嚴(yán)格的定義多少層的模型才叫深度模型,目前如果有超過2層的隱層,那么也可以及叫做深度模型。?
9神經(jīng)網(wǎng)絡(luò)可以認(rèn)為是多個(gè)簡(jiǎn)單函數(shù)的堆疊。假設(shè)我們想重復(fù)下圖所示的決策邊界
使用兩個(gè)簡(jiǎn)單的輸入h1和h2
最終的等式是什么?
A. (h1 AND NOT h2) OR (NOT h1 AND h2)
B. (h1 OR NOT h2) AND (NOT h1 OR h2)
C. (h1 AND h2) OR (h1 OR h2)
D. None of these
答案:(A)
你可以看見,巧妙地合并h1和h2可以很容易地得到復(fù)雜的等式。參見這本書的第九章。?
10卷積神經(jīng)網(wǎng)絡(luò)可以對(duì)一個(gè)輸入完成不同種類的變換(旋轉(zhuǎn)或縮放),這個(gè)表述正確嗎?
正確
錯(cuò)誤
答案:(B)
數(shù)據(jù)預(yù)處理(也就是旋轉(zhuǎn)、縮放)步驟在把數(shù)據(jù)傳入神經(jīng)網(wǎng)絡(luò)之前是必要的,神經(jīng)網(wǎng)絡(luò)自己不能完成這些變換。
11下列哪一種操作實(shí)現(xiàn)了和神經(jīng)網(wǎng)絡(luò)中Dropout類似的效果?
A. Bagging
B. Boosting
C. 堆疊(Stacking)
D. 以上都不正確
答案:(A)
Dropout可以認(rèn)為是一種極端的Bagging,每一個(gè)模型都在單獨(dú)的數(shù)據(jù)上訓(xùn)練,通過和其他模型對(duì)應(yīng)參數(shù)的共享,模型的參數(shù)都進(jìn)行了很強(qiáng)的正則化。參見這里。
12下列哪哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?
隨機(jī)梯度下降
修正線性單元(ReLU)
卷積函數(shù)
以上都不正確
答案:(B)
修正線性單元是非線性的激活函數(shù)。?
13訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,損失函數(shù)在一些時(shí)期(Epoch)不再減小
原因可能是:
學(xué)習(xí)率(Learning rate)太低
正則參數(shù)太大
卡在了局部最小值
在你看來哪些是可能的原因?
A. 1 and 2
B. 2 and 3
C. 1 and 3
D. 都不是
答案:(D)
以上原因都可能造成這個(gè)結(jié)果。
14下列哪項(xiàng)關(guān)于模型能力(model capacity)的描述是正確的?(指模型能近似復(fù)雜函數(shù)的能力)
隱層層數(shù)增加,模型能力增加
Dropout的比例增加,模型能力增加
學(xué)習(xí)率增加,模型能力增加
都不正確
答案:(A)
只有選項(xiàng)A正確。?
15如果增加多層感知機(jī)(Multilayer Perceptron)的隱層層數(shù),測(cè)試集的分類錯(cuò)誤會(huì)減小。這種陳述正確還是錯(cuò)誤?
正確
錯(cuò)誤
答案:(B)
并不總是正確。過擬合可能會(huì)導(dǎo)致錯(cuò)誤增加。 ?
16構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入。
?
下列哪一種架構(gòu)有反饋連接?
循環(huán)神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)
限制玻爾茲曼機(jī)
都不是
答案:(A)
選項(xiàng)A正確。
17在感知機(jī)中(Perceptron)的任務(wù)順序是什么?
初始化隨機(jī)權(quán)重
去到數(shù)據(jù)集的下一批(batch)
如果預(yù)測(cè)值和輸出不一致,改變權(quán)重
對(duì)一個(gè)輸入樣本,計(jì)算輸出值
A. 1, 2, 3, 4
B. 4, 3, 2, 1
C. 3, 1, 2, 4
D. 1, 4, 3, 2
答案:(D)
順序D是正確的。
18假設(shè)你需要改變參數(shù)來最小化代價(jià)函數(shù)(cost function),可以使用下列哪項(xiàng)技術(shù)?
A.??????? 窮舉搜索
B.??????? 隨機(jī)搜索
C.??????? Bayesian優(yōu)化
D.??????? 以上任意一種
答案:(D)
以上任意種技術(shù)都可以用來更新參數(shù)。
19在哪種情況下,一階梯度下降不一定正確工作(可能會(huì)卡住)?
A. ?
B. ???
C.
D. 以上都不正確
答案:(B)
這是鞍點(diǎn)(Saddle Point)的梯度下降的經(jīng)典例子。?
20訓(xùn)練好的三層卷積神經(jīng)網(wǎng)絡(luò)的精確度(Accuracy)vs 參數(shù)數(shù)量(比如特征核的數(shù)量)的圖示如下。
從圖中趨勢(shì)可見,如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)閾值,然后開始降低。這一現(xiàn)象的可能是什么原因是造成的?
即便核數(shù)量(number of kernels)增加,只有一部分核被用于預(yù)測(cè)
當(dāng)核數(shù)量增加,神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)功效(Power)降低
當(dāng)核數(shù)量增加,其相關(guān)性增加,導(dǎo)致過擬合
以上都不正確
答案:(C)
如C選項(xiàng)指出的那樣,可能的原因是核之間的相關(guān)性。
21假設(shè)我們有一個(gè)隱層神經(jīng)網(wǎng)絡(luò),如上所示。隱層在這個(gè)網(wǎng)絡(luò)中用于降維。現(xiàn)在我們并不是采用這個(gè)隱層,而是使用例如主成分分析(Principal Component Analysis, PCA)的降維技術(shù)。
使用降維技術(shù)的網(wǎng)絡(luò)與隱層網(wǎng)絡(luò)總是有相同的輸出嗎?
A.是
B.否
答案:(B)
因?yàn)镻CA用于相關(guān)特征而隱層用于有預(yù)測(cè)能力的特征
22可以用神經(jīng)網(wǎng)絡(luò)對(duì)函數(shù)(y=1/x)建模嗎?
A.是
B.否
答案:(A)
選項(xiàng)A是正確的,因?yàn)榧せ詈瘮?shù)可以是互反函數(shù)
23下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?
A.卷積神經(jīng)網(wǎng)絡(luò)
B.循環(huán)神經(jīng)網(wǎng)絡(luò)
C.全連接神經(jīng)網(wǎng)絡(luò)
D.選項(xiàng)A和B
答案:(D)
24批規(guī)范化是有幫助的,因?yàn)?/span>
A.在將所有的輸入傳遞到下一層之前對(duì)其進(jìn)行歸一化(更改)
B.它將返回歸一化的權(quán)重平均值和標(biāo)準(zhǔn)差
C.它是一種非常有效的反向傳播技術(shù)
D.這些均不是
答案:(A)
要詳細(xì)了解批規(guī)范化,請(qǐng)參閱此視頻。
25我們不是想要絕對(duì)零誤差,而是設(shè)置一個(gè)稱為貝葉斯(bayes)誤差(我們希望實(shí)現(xiàn)的誤差)的度量。使用貝葉斯(bayes)誤差的原因是什么?
A.輸入變量可能不包含有關(guān)輸出變量的完整信息
B.系統(tǒng)(創(chuàng)建輸入-輸出映射)可以是隨機(jī)的
C.有限的訓(xùn)練數(shù)據(jù)
D.所有
答案:(D)
想在現(xiàn)實(shí)中實(shí)現(xiàn)準(zhǔn)確的預(yù)測(cè),是一個(gè)神話,所以我們的希望應(yīng)該放在實(shí)現(xiàn)一個(gè)“可實(shí)現(xiàn)的結(jié)果”上。
26在監(jiān)督學(xué)習(xí)任務(wù)中,輸出層中的神經(jīng)元的數(shù)量應(yīng)該與類的數(shù)量(其中類的數(shù)量大于2)匹配。對(duì)或錯(cuò)?
A.正確
B.錯(cuò)誤
答案:(B)
它取決于輸出編碼。如果是獨(dú)熱編碼(one-hot encoding) 則正確。但是你可以有兩個(gè)輸出囊括四個(gè)類,并用二進(jìn)制值表示出來(00,01,10,11)。
27在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)用于解決過擬合?
A.Dropout
B.正則化
C.批規(guī)范化
D.所有
答案:(D)
所有的技術(shù)都可以用于處理過擬合。
28Y = ax^2 + bx + c(二次多項(xiàng)式)
這個(gè)方程可以用具有線性閾值的單個(gè)隱層的神經(jīng)網(wǎng)絡(luò)表示嗎?
A.是
B.否
答案:(B)
答案為否。因?yàn)楹?jiǎn)單來說,有一個(gè)線性閾值限制神經(jīng)網(wǎng)絡(luò)就會(huì)使它成為一個(gè)相應(yīng)的線性變換函數(shù)。
29神經(jīng)網(wǎng)絡(luò)中的死神經(jīng)元(dead unit)是什么?
A.在訓(xùn)練任何其它相鄰單元時(shí),不會(huì)更新的單元
B.沒有完全響應(yīng)任何訓(xùn)練模式的單元
C.產(chǎn)生最大平方誤差的單元
D.以上均不符合
答案:(A)
30以下哪項(xiàng)是對(duì)早期停止的最佳描述?
A.訓(xùn)練網(wǎng)絡(luò)直到達(dá)到誤差函數(shù)中的局部最小值
B.在每次訓(xùn)練期后在測(cè)試數(shù)據(jù)集上模擬網(wǎng)絡(luò),當(dāng)泛化誤差開始增加時(shí)停止訓(xùn)練
C.在中心化權(quán)重更新中添加一個(gè)梯度下降加速算子,以便訓(xùn)練更快地收斂
D.更快的方法是反向傳播,如‘Quickprop’算法
答案:(B)
31如果我們使用的學(xué)習(xí)率太大該怎么辦?
A.網(wǎng)絡(luò)將收斂
B.網(wǎng)絡(luò)將無法收斂
C.不確定
答案:(B)
選項(xiàng)B正確,因?yàn)殄e(cuò)誤率會(huì)變得不穩(wěn)定并且達(dá)到非常大的值
32圖1所示的網(wǎng)絡(luò)用于訓(xùn)練識(shí)別字符H和T,如下所示:
網(wǎng)絡(luò)的輸出是什么?
A.
B.
C.
D.可能是A或B,取決于神經(jīng)網(wǎng)絡(luò)的權(quán)重
答案:(D)
不知道神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏差是什么,則無法評(píng)論它將會(huì)給出什么樣的輸出。
33假設(shè)在ImageNet數(shù)據(jù)集(對(duì)象識(shí)別數(shù)據(jù)集)上訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)。然后給這個(gè)訓(xùn)練模型一個(gè)完全白色的圖像作為輸入。這個(gè)輸入的輸出概率對(duì)于所有類都是相等的。對(duì)或錯(cuò)?
A.正確
B.錯(cuò)誤
答案:(B)
將存在一些不為白色像素激活的神經(jīng)元作為輸入,所以類不會(huì)相等。
34當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中添加池化層(pooling layer)時(shí),變換的不變性保持穩(wěn)定,這樣的理解是否正確?
A.正確
B.錯(cuò)誤
答案:(A)
使用池化時(shí)會(huì)導(dǎo)致出現(xiàn)不變性。
35Q35.當(dāng)數(shù)據(jù)太大而不能同時(shí)在RAM中處理時(shí),哪種梯度技術(shù)更有優(yōu)勢(shì)?
A.全批量梯度下降(Full Batch Gradient Descent )
B.隨機(jī)梯度下降(Stochastic Gradient Descent)
答案:(B)
36該圖表示,使用每個(gè)訓(xùn)練時(shí)期的激活函數(shù),-訓(xùn)練有四個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)梯度流。神經(jīng)網(wǎng)絡(luò)遭遇了梯度消失問題。
下列哪項(xiàng)正確?
A.隱藏層1對(duì)應(yīng)于D,隱藏層2對(duì)應(yīng)于C,隱藏層3對(duì)應(yīng)于B,隱藏層4對(duì)應(yīng)于A
B.隱藏層1對(duì)應(yīng)于A,隱藏層2對(duì)應(yīng)于B,隱藏層3對(duì)應(yīng)于C,隱藏層4對(duì)應(yīng)于D
答案:(A)
這是對(duì)消失梯度描述的問題。由于反向傳播算法進(jìn)入起始層,學(xué)習(xí)能力降低。
37對(duì)于分類任務(wù),我們不是將神經(jīng)網(wǎng)絡(luò)中的隨機(jī)權(quán)重初始化,而是將所有權(quán)重設(shè)為零。下列哪項(xiàng)是正確的?
A.沒有任何問題,神經(jīng)網(wǎng)絡(luò)模型將正常訓(xùn)練
B.神經(jīng)網(wǎng)絡(luò)模型可以訓(xùn)練,但所有的神經(jīng)元最終將識(shí)別同樣的事情
C.神經(jīng)網(wǎng)絡(luò)模型不會(huì)進(jìn)行訓(xùn)練,因?yàn)闆]有凈梯度變化
D.這些均不會(huì)發(fā)生
答案:(B)
38開始時(shí)有一個(gè)停滯期,這是因?yàn)樯窠?jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之前陷入局部最小值。
為了避免這種情況,下面的哪個(gè)策略有效?
A.增加參數(shù)的數(shù)量,因?yàn)榫W(wǎng)絡(luò)不會(huì)卡在局部最小值處
B.在開始時(shí)把學(xué)習(xí)率降低10倍,然后使用梯度下降加速算子(momentum)
C.抖動(dòng)學(xué)習(xí)速率,即改變幾個(gè)時(shí)期的學(xué)習(xí)速率
D.以上均不是
答案:(C)
選項(xiàng)C可以將陷于局部最小值的神經(jīng)網(wǎng)絡(luò)提取出來。
39對(duì)于圖像識(shí)別問題(比如識(shí)別照片中的貓),神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)更適合解決哪類問題?
A.多層感知器
B.卷積神經(jīng)網(wǎng)絡(luò)
C.循環(huán)神經(jīng)網(wǎng)絡(luò)
D.感知器
答案:(B)
卷積神經(jīng)網(wǎng)絡(luò)將更好地適用于圖像相關(guān)問題,因?yàn)榭紤]到圖像附近位置變化的固有性質(zhì)。
40假設(shè)在訓(xùn)練時(shí),你遇到這個(gè)問題。在幾次迭代后,錯(cuò)誤突然增加。
您確定數(shù)據(jù)一定有問題。您將數(shù)據(jù)描繪出來,找到了原始數(shù)據(jù)有點(diǎn)偏離,這可能是導(dǎo)致出現(xiàn)問題的地方。
你將如何應(yīng)對(duì)這個(gè)挑戰(zhàn)?
A.歸一化
B.應(yīng)用PCA然后歸一化
C.對(duì)數(shù)據(jù)進(jìn)行對(duì)數(shù)變換
D.以上這些都不符合
答案:(B)
首先您將相關(guān)的數(shù)據(jù)去掉,然后將其置零。
41以下哪項(xiàng)是神經(jīng)網(wǎng)絡(luò)的決策邊界?
A) B
B) A
C) D
D) C
E) 以上所有
答案:(E)
神經(jīng)網(wǎng)絡(luò)被稱為通用函數(shù)擬合器(universal function approximator),所以它理論上可以表示任何決策邊界。?
42在下面的圖中,我們觀察到錯(cuò)誤有許多“起伏”,我們?cè)摓榇硕鴵?dān)心嗎?
A.是,因?yàn)檫@意味著神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)速率有問題。
B.否,只要訓(xùn)練和驗(yàn)證錯(cuò)誤累積減少,我們就不必?fù)?dān)心。
答案:(B)
選項(xiàng)B是正確的,為了減少這些“起伏”,可以嘗試增加批尺寸(batch size)
43什么是影響神經(jīng)網(wǎng)絡(luò)的深度選擇的因素?
1.神經(jīng)網(wǎng)絡(luò)的類型,例如:多層感知機(jī)(Multi-Layer Perceptrons, MLP),卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)
2.輸入數(shù)據(jù)
3.計(jì)算能力,即硬件和軟件能力
4.學(xué)習(xí)率
5.輸出函數(shù)映射
A. 1, 2, 4, 5
B. 2, 3, 4, 5
C. 1, 3, 4, 5
D. 以上均是
答案:(D)
所有上述因素對(duì)于選擇神經(jīng)網(wǎng)絡(luò)模型的深度都是重要的。
44考慮這種情況:您嘗試解決的問題有少量的數(shù)據(jù)。幸運(yùn)的是,您有一個(gè)之前訓(xùn)練過的針對(duì)類似問題的神經(jīng)網(wǎng)絡(luò)模型。您將使用以下哪種方法來使用該預(yù)先訓(xùn)練的模型?
A.對(duì)于新的數(shù)據(jù)集重新訓(xùn)練模型
B.在每一層評(píng)估模型如何執(zhí)行,只選擇其中的一些
C.只微調(diào)最后幾層
D.凍結(jié)除最后一層之外的所有層,重新訓(xùn)練最后一層
答案:(D)
如果數(shù)據(jù)集大部分相似,最好的方法是只訓(xùn)練最后一層,因?yàn)榍懊娴乃袑佣加糜谔卣魈崛 ?/span>
45增大卷積核的大小必然會(huì)提高卷積神經(jīng)網(wǎng)絡(luò)的性能。
A.正確
B.錯(cuò)誤
答案:(B)
增加核函數(shù)的大小不一定會(huì)提高性能。這個(gè)問題在很大程度上取決于數(shù)據(jù)集。
原文發(fā)布時(shí)間為:2017-02-27
本文來自云棲社區(qū)合作伙伴“大數(shù)據(jù)文摘”,了解相關(guān)信息可以關(guān)注“BigDataDigest”微信公眾號(hào)
總結(jié)
以上是生活随笔為你收集整理的辨别真假数据科学家必备手册:深度学习45个基础问题(附答案)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: context:annotation-c
- 下一篇: 中兴智能视觉大数据:人脸识别技术目前处于