日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

90题细品吴恩达《机器学习》,感受被刷题支配的恐惧

發布時間:2025/3/8 69 豆豆
生活随笔 收集整理的這篇文章主要介紹了 90题细品吴恩达《机器学习》,感受被刷题支配的恐惧 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

點擊藍字關注我,有干貨領取!



最近翻譯了吳恩達《機器學習》課程的配套題庫。課程系列本身多有名多經典我就不贅述啦~

主要是我發現,現在市面上基本都是課程和編程題的翻譯版,很少有人翻譯測驗(quiz)的題。但最近我親測感受了一下,這套題其實有點東西,考點非常細膩。新手配合教程使用,可以更好地學習知識;老手在錯到懷疑人生的同時,可以幫你回顧理論知識。所以就給大家搬來啦~

另外,因為里面有一部分比較水基礎的題,所以我酌情搬了節選。

第 16 題

假設m=4個學生上了一節課,有期中考試和期末考試。你已經收集了他們在兩次考試中的分數數據集,如下所示:

期中得分(期中得分)^2期末得分
89792196
72518474
94883687
69476178

你想用多項式回歸來預測一個學生的期中考試成績。具體地說,假設你想擬合一個的模型,其中x1是期中得分,x2是(期中得分)^2。此外,你計劃同時使用特征縮放(除以特征的“最大值-最小值”或范圍)和均值歸一化。

標準化后的特征值是多少?(提示:期中=89,期末=96是訓練示例1)

第 17 題

用進行15次梯度下降迭代,每次迭代后計算。你會發現的值下降緩慢,并且在15次迭代后仍在下降。基于此,以下哪個結論似乎最可信?

A.?是學習率的有效選擇。

B. 與其使用當前值,不如嘗試更小的值(比如)

C. 與其使用當前值,不如嘗試更大的值(比如)

第 18 題

假設您有m=14個訓練示例,有n=3個特性(不包括需要另外添加的恒為1的截距項),正規方程是。對于給定m和n的值,這個方程中的維數分別是多少?

A.??14×3,??14×1,??3×3 B.??14×4,??14×1,??4×1 C.??14×3,??14×1,??3×1 D.??14×4,??14×4,??4×4

第 19 題

假設您有一個數據集,每個示例有m=1000000個示例和n=200000個特性。你想用多元線性回歸來擬合參數到我們的數據。你更應該用梯度下降還是正規方程?

A. 梯度下降,因為正規方程中中計算非常慢

B. 正規方程,因為它提供了一種直接求解的有效方法

C. 梯度下降,因為它總是收斂到最優

D. 正規方程,因為梯度下降可能無法找到最優

第 20 題

以下哪些是使用特征縮放的原因?

A. 它可以防止梯度下降陷入局部最優

B. 它通過降低梯度下降的每次迭代的計算成本來加速梯度下降

C. 它通過減少迭代次數來獲得一個好的解,從而加快了梯度下降的速度

D. 它防止矩陣(用于正規方程)不可逆(奇異/退化)

第 27 題

假設您有以下訓練集,并擬合logistic回歸分類器

以下哪項是正確的?選出所有正確項

A. 添加多項式特征(例如,使用)可以增加我們擬合訓練數據的程度

B. 在的最佳值(例如,由fminunc找到)處,

C.添加多項式特征(例如,使用將增加,因為我們現在正在對更多項進行求和

D.如果我們訓練梯度下降迭代足夠多次,對于訓練集中的一些例子,可能得到

第 28 題

對于邏輯回歸,梯度由給出。以下哪項是學習率為的邏輯回歸的正確梯度下降更新?選出所有正確項

A.?

B.?(同時更新所有)

C.?(同時更新所有)

D.?(同時更新所有)

第 29 題

以下哪項陳述是正確的?選出所有正確項

A. 對于邏輯回歸,梯度下降有時會收斂到一個局部最小值(并且無法找到全局最小值)。這就是為什么我們更喜歡更先進的優化算法,如fminunc(共軛梯度/BFGS/L-BFGS/等等)

B. sigmoid函數數值永遠不會大于1

C.用個例子訓練的邏輯回歸的代價函數總是大于或等于零

D. 使用線性回歸+閾值的方法做分類預測,總是很有效的

第 31 題

你正在訓練一個分類邏輯回歸模型。以下哪項陳述是正確的?選出所有正確項

A. 將正則化引入到模型中,總是能在訓練集上獲得相同或更好的性能

B. 在模型中添加許多新特性有助于防止訓練集過度擬合

C. 將正則化引入到模型中,對于訓練集中沒有的例子,總是可以獲得相同或更好的性能

D. 向模型中添加新特征總是會在訓練集上獲得相同或更好的性能

第 31 題

你正在訓練一個分類邏輯回歸模型。以下哪項陳述是正確的?選出所有正確項

A. 將正則化引入到模型中,總是能在訓練集上獲得相同或更好的性能

B. 在模型中添加許多新特性有助于防止訓練集過度擬合

C. 將正則化引入到模型中,對于訓練集中沒有的例子,總是可以獲得相同或更好的性能

D. 向模型中添加新特征總是會在訓練集上獲得相同或更好的性能

第 32 題

假設您進行了兩次邏輯回歸,一次是,一次是。其中一次,得到參數,另一次,得到。但是,您忘記了哪個值對應于哪個值。你認為哪個對應?

A.?

B.?

第 33 題

以下關于正則化的陳述哪一個是正確的?選出所有正確項

A. 使用太大的值可能會導致您的假設與數據過擬合;這可以通過減小來避免

B. 使用非常大的值不會影響假設的性能;我們不將設置為太大的唯一原因是避免數值問題

C. 考慮一個分類問題。添加正則化可能會導致分類器錯誤地分類某些訓練示例(當不使用正則化時,即當時,它正確地分類了這些示例)

D. 由于邏輯回歸的輸出值,其輸出值的范圍無論如何只能通過正則化來“縮小”一點,因此正則化通常對其沒有幫助

第 36 題

以下哪項陳述是正確的?選擇所有正確項

A. 神經網絡中隱藏單元的激活值,在應用了sigmoid函數之后,總是在(0,1)范圍內

B. 在二進制值(0或1)上的邏輯函數可以(近似)用一些神經網絡來表示

C. 兩層(一個輸入層,一個輸出層,沒有隱藏層)神經網絡可以表示異或函數

D. 假設有一個三個類的多類分類問題,使用三層網絡進行訓練。設為第一輸出單元的激活,并且類似地,有和。那么對于任何輸入x,必須有

第 37 題

考慮以下兩個二值輸入和輸出的神經網絡。它(近似)計算了下列哪一個邏輯函數?

A. OR

B. AND

C. NAND (與非)

D. XOR (異或)

第 38 題

考慮下面給出的神經網絡。下列哪個方程正確地計算了的激活?注:是sigmoid激活函數

A.?

B.?

C.?

D. 此網絡中不存在激活

第 39 題

你有以下神經網絡:

你想計算隱藏層的激活,一種方法是使用以下Octave代碼:

您需要一個矢量化的實現(即,一個不用循環的實現)。下列哪個實現正確計算?選出所有正確項

A. z = Theta1 * x; a2 = sigmoid (z)?

B. a2 = sigmoid (x * Theta1)?

C. a2 = sigmoid (Theta2 * x)?

D. z = sigmoid(x); a2 = sigmoid (Theta1 * z)

第 40 題

您正在使用下圖所示的神經網絡,并已學習參數(用于計算)和(用于作用在的函數,計算的值)。

假設您交換第一個隱藏層的2個單元的參數,并且還交換輸出層。這將如何改變輸出的值?

A. 不變 B. 變大 C. 變小 D. 信息不全,可能變大也可能變小

第 41 題

您正在訓練一個三層神經網絡,希望使用反向傳播來計算代價函數的梯度。在反向傳播算法中,其中一個步驟是更新??對于每個i,j,下面哪一個是這個步驟的正確矢量化?

A.??

B.??

C.??

D.?

第 43 題

設,設。用公式來數值計算在時的逼近。你將得到什么值?(當時,精確導數為)

A. 8 B. 6 C. 5.9998 D. 6.0002

第 44 題

以下哪項陳述是正確的?選擇所有正確項

A. 使用較大的值不會影響神經網絡的性能;我們不將設置為太大的唯一原因是避免數值問題

B. 如果我們使用梯度下降作為優化算法,梯度檢查是有用的。然而,如果我們使用一種先進的優化方法(例如在fminunc中),它沒有多大用處

C. 使用梯度檢查可以幫助驗證反向傳播的實現是否沒有bug

D. 如果我們的神經網絡過擬合訓練集,一個合理的步驟是增加正則化參數

第 45 題

以下哪項陳述是正確的?選擇所有正確項

A. 假設參數是一個方矩陣(即行數等于列數)。如果我們用它的轉置代替,那么我們并沒有改變網絡正在計算的功能。

B. 假設我們有一個正確的反向傳播實現,并且正在使用梯度下降訓練一個神經網絡。假設我們將繪制為迭代次數的函數,并且發現它是遞增的而不是遞減的。一個可能的原因是學習率太大。

C. 假設我們使用學習率為的梯度下降。對于邏輯回歸和線性回歸,是一個凸優化問題,因此我們不想選擇過大的學習率。然而,對于神經網絡,可能不是凸的,因此選擇一個非常大的值只能加快收斂速度。

D. 如果我們使用梯度下降訓練一個神經網絡,一個合理的調試步驟是將繪制為迭代次數的函數,并確保每次迭代后它是遞減的(或至少是不遞增的)。

第 46 題

你訓練一個學習算法,發現它在測試集上的誤差很高。繪制學習曲線,并獲得下圖。算法是否存在高偏差、高方差或兩者都不存在?

A. 高偏差 B. 高方差 C. 兩者都不

第 47 題

假設您已經實現了正則化邏輯回歸來分類圖像中的對象(即,還沒有實現圖像識別)。然而,當你在一組新的圖像上檢驗你的模型時,你會發現它對新圖像的預測有誤差非常大。然而,你的假設在訓練集上擬合的很好。以下哪個做法可以改善?選出所有正確項

A. 嘗試添加多項式特征?

B. 獲取更多訓練示例?

C. 嘗試使用較少的特征?

D. 少用訓練的例子

第 48 題

假設您已經實現了正則化的邏輯來預測客戶將在購物網站上購買哪些商品。然而,當你在一組新的客戶身上測試你的模型時,你發現它在預測中的誤差很大。此外,該模型在訓練集上表現不佳。以下哪個做法可以改善?選出所有正確項

A. 嘗試獲取并使用其他特征?

B. 嘗試添加多項式特征?

C. 嘗試使用較少的特征?

D. 嘗試增加正則化參數

第 49 題

以下哪項陳述是正確的?選出所有正確項

A. 假設您正在訓練一個正則化的線性回歸模型。選擇正則化參數值的推薦方法是選擇交叉驗證誤差最小的值。

B. 假設您正在訓練一個正則化的線性回歸模型。選擇正則化參數值的推薦方法是選擇給出最小測試集誤差的值。

C. 假設你正在訓練一個正則化線性回歸模型,推薦的選擇正則化參數值的方法是選擇給出最小訓練集誤差的值。

D. 學習算法在訓練集上的性能通常比在測試集上的性能要好。

第 50 題

以下哪項陳述是正確的?選出所有正確項

A. 在調試學習算法時,繪制學習曲線有助于了解是否存在高偏差或高方差問題。

B. 如果一個學習算法受到高方差的影響,增加更多的訓練實例可能會改善測試誤差。

C. 我們總是喜歡高方差的模型(而不是高偏差的模型),因為它們能夠更好地適應訓練集。

D. 如果一個學習算法有很高的偏差,僅僅增加更多的訓練實例可能不會顯著改善測試誤差。

第 53 題

假設您已經訓練了一個輸出的邏輯回歸分類器。目前,如果,則預測1, 如果,則預測0,當前閾值設置為0.5。

假設您將閾值增加到0.9。以下哪項是正確的?選出所有正確項

A. 現在分類器的精度可能更低。

B. 分類器的準確度和召回率可能不變,但準確度較低。

C. 分類器的準確度和召回率可能不變,但精度較高。

D. 分類器現在可能具有較低的召回率。

假設您將閾值降低到0.3。以下哪項是正確的?選出所有正確項

A. 分類器現在可能具有更高的召回率。

B. 分類器的準確度和召回率可能不變,但精度較高。

C. 分類器現在可能具有更高的精度。

D. 分類器的準確度和召回率可能不變,但準確度較低。

第 54 題

假設您正在使用垃圾郵件分類器,其中垃圾郵件是正例(y=1),非垃圾郵件是反例(y=0)。您有一組電子郵件訓練集,其中99%的電子郵件是非垃圾郵件,另1%是垃圾郵件。以下哪項陳述是正確的?選出所有正確項

A. 一個好的分類器應該在交叉驗證集上同時具有高精度precision和高召回率recall。

B. 如果您總是預測非垃圾郵件(輸出y=0),那么您的分類器在訓練集上的準確度accuracy將達到99%,而且它在交叉驗證集上的性能可能類似。

C. 如果您總是預測非垃圾郵件(輸出y=0),那么您的分類器的準確度accuracy將達到99%。

D. 如果您總是預測非垃圾郵件(輸出y=0),那么您的分類器在訓練集上的準確度accuracy將達到99%,但在交叉驗證集上的準確率會更差,因為它過擬合訓練數據。

第 55 題

以下哪項陳述是正確的?選出所有正確項

A. 在構建學習算法的第一個版本之前,花大量時間收集大量數據是一個好主意。

B. 在傾斜的數據集上(例如,當有更多的正面例子而不是負面例子時),準確度不是一個很好的性能度量,您應該根據準確度和召回率使用F1分數。

C. 訓練完邏輯回歸分類器后,必須使用0.5作為預測示例是正是負的閾值。

D. 使用一個非常大的訓練集使得模型不太可能過度擬合訓練數據。

E. 如果您的模型不適合訓練集,那么獲取更多數據可能會有幫助。

第 56 題

假設您使用訓練了一個高斯內核的支持向量機,它在訓練集上學習了以下決策邊界:

你覺得支持向量機欠擬合了,你應該試著增加或減少嗎?或者增加或減少?

A. 降低,增加?

B. 降低,降低?

C. 增加,增加?

D. 增加,降低

第 58 題

支持向量機求解,其中函數和圖像如下:

目標中的第一項是:?如果以下四個條件中有兩個為真,則第一項為零。使這個項等于零的兩個條件是什么?

A. 對于的每個例子,有

B. 對于的每個例子,有

C. 對于的每個例子,有

D. 對于的每個例子,有

第 59 題

假設您有一個具有n=10個特征和m=5000個示例的數據集。在用梯度下降訓練邏輯回歸分類器之后,您發現它與訓練集欠擬合,并且在訓練集或交叉驗證集上沒有達到所需的性能。以下哪個步驟有望改善?選出所有正確項

A. 嘗試使用具有大量隱藏單元的神經網絡。

B. 減少訓練集中的示例數。

C. 使用不同的優化方法,因為使用梯度下降訓練邏輯可能會導致局部最小。

D. 創建/添加新的多項式特征。

第 60 題

以下哪項陳述是正確的?選出所有正確項

A. 假設您使用支持向量機進行多類分類,并希望使用“一對所有”方法。如果你有個不同的類,你將訓練個不同的支持向量機。

B. 如果數據是線性可分的,那么不管值是多少,線性內核的支持向量機都將返回相同的參數(即,的結果值不依賴于)。

C. 高斯核的最大值(即)是1。

D. 在使用高斯核之前進行特征歸一化是很重要的。

第 63 題

K-means是一種迭代算法,在其內部循環中重復執行以下兩個步驟。哪兩個?

A. 移動簇中心,更新簇中心。

B. 分配簇,其中參數被更新。

C. 移動簇中心,將其設置為等于最近的訓練示例

D. 簇中心分配步驟,其中每個簇質心被分配(通過設置)到最近的訓練示例。

第 64 題

假設您有一個未標記的數據集。你用50個不同的隨機數運行K-means初始化,并獲得了50個不同的聚類。選擇這50個組合中的哪一個的方法是什么?

A. 唯一的方法是我們需要數據標簽。

B. 對于每一個分類,計算,并選擇這個值最小的一個。

C. 答案模棱兩可,沒有好的選擇方法。

D. 總是選擇找到的最后一個(第50個)聚類,因為它更有可能收斂到一個好的解決方案。

第 65 題

以下哪項陳述是正確的?選出所有正確項

A. 如果我們擔心K-means陷入局部最優解,一種改善(減少)這個問題的方法是嘗試使用多個隨機初始化。

B. 初始化K-均值的標準方法是將設置為等于零的向量。

C. 由于K-Means是一種無監督的學習算法,它不能對數據進行過度擬合,因此最好在計算上盡可能多的聚類。

D. 對于某些數據集,K(集群數量)的“正確”值可能是不明確的,甚至對于仔細查看數據的人類專家來說也很難做出決定。

E. 無論簇中心的初始化如何,K-均值都會給出相同的結果。

F. 初始化K-means的一個好方法是從訓練集中選擇K個(不同的)示例,并設置與這些選定示例相等的簇質心。

G. 在K-均值的每次迭代中,代價函數(失真函數)要么保持不變,要么減小,特別是不應增加。

H. 一旦一個例子被分配到一個特定的簇中心,它將永遠不會被重新分配到另一個不同的簇中心。

第 67 題

以下哪一項是選擇主成分數量的合理方法?(n是輸入數據的維度mm是輸入示例的數量)

A. 選擇至少保留99%的方差的k的最小值

B. 選擇k,使逼近誤差。

C. 選擇至少保留1%的方差的k的最小值

D. 選擇k為99%的n(即四舍五入至最接近的整數)。

第 68 題

假設有人告訴你,他們運行主成分分析的方式是“95%的方差被保留”,什么是與此等價的說法?

A.??

B.??

C.??

D.?

第 69 題

以下哪項陳述是正確的?選擇所有正確項

A. 僅給出和,就沒有辦法重建的任何合理的近似。

B. 即使所有的輸入特征都在非常相似的尺度上,在運行PCA之前,我們仍然應該執行均值歸一化(這樣每個特征的均值為零)。

C. PCA易受局部最優解的影響;嘗試多次隨機初始化可能會有所幫助。

D. 給定輸入數據,僅用滿足的k值運行PCA是有意義的(特別是,用k=n運行PCA是可能的,但沒有幫助,沒有意義)

第 70 題

以下哪項是PCA的推薦應用?選擇所有正確項

A. 作為線性回歸的替代:對于大多數模型應用,PCA和線性回歸給出了基本相似的結果。

B. 數據壓縮:減少數據的維數,從而減少占用的內存/磁盤空間。

C. 數據可視化:獲取二維數據,并在二維中找到不同的繪制方法(使用k=2)。

D. 數據壓縮:減少輸入數據的維數,該維數將用于監督學習算法(即,使用PCA以使監督學習算法運行更快)。

第 72 題

假設您已經訓練了一個異常檢測系統,當時標記異常,并且您在交叉驗證集中發現它有太多的誤報(標記太多的東西為異常)。你該怎么辦?

A. 增大?B. 減小

第 73 題

假設您正在開發一個異常檢測系統來捕獲飛機發動機中的制造缺陷。你的模型用。有兩個特性=振動強度,=產生的熱量,的值都在0到1之間(并且嚴格大于0)。對于大多數“正常”發動機,你期望。其中一個可疑的異常是,即使不產生太多熱量,發動機也會劇烈振動(大,小),即使和的特定值可能不在其典型值范圍之外。您應該構造哪些特征來捕獲這些類型的異常:

A.??B.??C.??D.?

第 74 題

以下哪項是正確的?選擇所有正確項

A. 如果沒有任何標記的數據(或者如果所有數據都有標記),則仍然可以學習,但可能更難評估系統或選擇一個好的值。

B. 如果你有一個帶有許多正例子和許多負例子的訓練集,那么異常檢測算法的性能可能與有監督的學習算法(如支持向量機)一樣好。

C. 如果您正在開發異常檢測系統,則無法使用標記的數據來改進您的系統。

D. 在為異常檢測系統選擇特征時,最好為異常示例尋找具有異常大值或小值的特征。

第 75 題

您有一個一維數據集,并且希望檢測數據集中的異常值。首先繪制數據集,它如下所示:

假設將高斯分布參數μ1μ1和σ21σ12擬合到此數據集。對于,可以得到下列哪個值?

A.??

B.??

C.??

D.?

第 76 題

假設你開了一家書店,對書的評級為(1到5星)。協作過濾算法為用戶j學習了參數向量,為每本書學習了特征向量。你需要計算“訓練誤差”,即你的系統對你從用戶那里得到的所有評分的預測的平均平方誤差。以下哪種方法是正確的(選出所有正確項)?對于這個問題,設m為您從用戶那里獲得的評分總數(。

A.??

B.??

C.??

D.?

第 77 題

在下列哪種情況下,協同過濾系統是最合適的學習算法(與線性或邏輯回歸相比)?

A. 你經營一家在線書店,收集許多用戶的評價。你想用它來識別哪些書彼此“相似”(即,如果一個用戶喜歡某本書,那么他可能也喜歡哪些書?)

B. 你管理一個在線書店,你有許多用戶的書評。你想根據一本書的平均評分來預測預期的銷售量(售出的書的數量)。

C. 你是個藝術家,為你的客戶手繪肖像。每個客戶都會得到不同的肖像(他們自己)并給你1-5星級的評價反饋,每個客戶最多購買1幅肖像。你想預測下一個客戶會給你什么樣的評分。

D. 你開了一家服裝店,出售許多款式和品牌的牛仔褲。你已經收集了經常購物者對不同款式和品牌的評論,你想用這些評論為那些購物者提供你認為他們最有可能購買的牛仔褲的折扣

第 78 題

你經營著一個電影公司,想要建立一個基于協同過濾的電影推薦系統。有三個受歡迎的評論網站(我們稱之為A、B和C),用戶可以去給電影打分。你剛剛收購了三家經營這些網站的公司,希望將三個公司的數據集合并在一起,以構建一個單一/統一的系統。在A網站上,用戶將一部電影分為1到5顆星。在B網站上,用戶的排名是1-10分,允許使用小數(如7.5)。在C網站,收視率從1到100。您還擁有足夠的信息來識別一個網站上的用戶/電影和另一個網站上的用戶/電影。以下哪個陳述是正確的?

A. 您可以將三個數據集合并為一個數據集,但是您應該首先規范化每個數據集的評級(比如將每個數據集的評級重新調整為0-1范圍)。

B. 只要在合并數據后執行平均規格化和特征縮放,就可以將所有三個訓練集合并為一個。

C. 假設在一個數據庫中至少有一個電影/用戶沒有出現在第二個數據庫中,那么就沒有合并這些數據集的合理方法,因為缺少數據。

D. 無法合并這些網站的數據。你必須建立三個獨立的推薦系統。

第 79 題

以下哪項是協作過濾系統的正確選擇?選出所有正確項

A. 基于內容的推薦算法的代價函數是。假設只有一個用戶,他對訓練集中的每一部電影都進行了分級。這意味著對于每個,有和。在這種情況下,成本函數等價于用于正則化線性回歸的函數。

B. 利用梯度下降訓練協同過濾系統時,可以將所有參數()初始化為零。

C. 如果你有一個用戶對某些產品的評級數據集,你可以使用這些數據來預測他對沒有評級的產品的偏好。

D. 要使用協作過濾,您需要為數據集中的每個項目(例如,電影)手動設計一個特征向量,該向量描述該項目最重要的屬性。

第 80 題

假設有兩個矩陣,其中是5x3,是3x5。它們的乘積是,一個5x5矩陣。此外,還有一個5x5矩陣R,其中每個條目都是0或1。你想找到所有元素的和,對應的是1,忽略所有的元素。一種方法是使用以下代碼:

下面哪一段代碼也能正確計算出這個總數?選出所有正確項

A. total = sum(sum((A * B) .* R))

B. C = A * B; total = sum(sum(C(R == 1)));

C. C = (A * B) * R; total = sum(C(:));

D. total = sum(sum(A(R == 1) * B(R == 1));

第 81 題

假設您正在使用隨機梯度下降訓練邏輯回歸分類器。你發現在過去的500個例子中,成本(即,500個例子平均后)繪制為迭代次數的函數,隨時間緩慢增加。以下哪項更改可能有幫助?

A. 試著在圖中用較少的例子(比如250個例子而不是500個)來平均成本。

B. 這在隨機梯度下降的情況下是不可能的,因為它保證收斂到最優參數。

C. 嘗試將學習率減半(減少),看看這是否會導致成本持續下降;如果沒有,繼續減半直到成本會持續下降。

D. 從訓練集中取更少的例子

第 82 題

下列關于隨機梯度下降的陳述哪一個是正確的?選出所有正確項

A. 您可以使用數值梯度檢查的方法來驗證您的隨機梯度下降實現是對的(隨機梯度下降之中的一步是計算偏導數)

B. 在運行隨機梯度下降之前,您應該隨機洗牌(重新排序)訓練集。

C. 假設您使用隨機梯度下降來訓練線性回歸分類器。代價函數一定會隨著每次迭代減小。

D. 為了確保隨機梯度下降收斂,我們通常在每次迭代后計算,并繪制它,以確保成本函數總體上是遞減的。

第 83 題

以下關于在線學習的陳述哪一個是正確的?選出所有正確項

A. 如果我們有一個連續/不間斷的數據流,用在線學習算法通常是最適合的。

B. 當我們有一個大小為m的固定訓練集需要訓練時,在線學習算法是最合適的。

C. 使用在線學習時,您必須保存獲得的每個訓練例子,因為您將需要重用過去的示例來重新訓練模型,即使在將來獲得新的培訓示例之后也是如此。

D. 在線學習的一個優點是,如果我們正在建模的功能隨著時間的推移而變化(例如,如果我們正在建模用戶單擊不同URL的概率,并且用戶的品味/偏好隨著時間的推移而變化),在線學習算法將自動適應這些變化。

第 84 題

假設您有一個非常大的訓練集,您認為以下哪種算法可以使用map-reduce和跨不同機器拆分訓練集來并行化?選出所有正確項

A. 用隨機梯度下降訓練邏輯回歸

B. 用隨機梯度下降訓練線性回歸

C. 用批量梯度下降訓練邏輯回歸

D. 計算訓練集中所有特征的平均值(例如為了執行平均歸一化)。

第 85 題

下面關于map-reduce的哪些語句是正確的?選出所有正確項

A. 由于網絡延遲和其他與map-reduce相關的開銷,如果我們使用N臺計算機運行map-reduce,與使用1臺計算機相比,我們可能會得到小于N倍的加速。

B. 如果您只有一臺具有一個計算核心的計算機,那么map-reduce不太可能有幫助。

C. 當使用帶梯度下降的map-reduce時,我們通常使用一臺機器從每個map-reduce機器中累積梯度,以便計算該迭代的參數更新。

D. 線性回歸和邏輯回歸可以用map-reduce并行化,但神經網絡訓練不能。

第 88 題

進行上限分析有什么好處?選出所有正確項

A. 這是為算法提供額外訓練數據的一種方法。

B. 使用上限分析能幫助我們分析流水線的哪個部分對整個系統的提高最大。

C. 使用上限分析能讓我們知道到某個模塊需不需要花精力做好;因為就算把這個模塊精度提高到100%了,也無助于提高整個系統的精度。

D.使用上限分析并不會幫我們分析出哪個部分是high bias,哪個部分是high variance。

第 89 題

假設您正在構建一個對象分類器,它將圖像作為輸入,并將該圖像識別為包含汽車(y=1y=1)或不包含汽車(y=0y=0)。例如,這里有正例和一個負例:

在仔細分析了算法的性能之后,你的結論是你需要更多正例()。下面哪一個可能是獲得更多正面例子的好方法?

A. 對現有訓練集中的圖像應用平移、扭曲和旋轉。

B. 選擇兩個汽車圖像并對其進行平均以生成第三個示例。

C. 從訓練集中獲取一些圖像,并向每個像素添加隨機高斯噪聲。

D. 為訓練集中的每個圖像制作兩份副本;這會立即使訓練集大小加倍。

第 90 題

假設您有一個圖片手寫字符識別系統,其中有以下流水線:

您已決定對此系統執行上限分析,并得到以下內容:
以下哪項陳述是正確的?

A. 提高字符識別系統的性能是可能的。

B. 執行此處的上限分析,需要我們對其它的三個流程都加上標簽來判斷對錯(ground-truth)。

C. 最沒有前途的部分是字符識別系統,因為它已經獲得了100%的準確率。

D. 最有前途的組件是文本檢測系統,因為它的性能最低(72%),因此潛在增益最大。

備注:公眾號菜單包含了整理了一本AI小抄非常適合在通勤路上用學習

往期精彩回顧2019年公眾號文章精選適合初學者入門人工智能的路線及資料下載機器學習在線手冊深度學習在線手冊AI基礎下載(第一部分)備注:加入本站微信群或者qq群,請回復“加群”加入知識星球(4500+用戶,ID:92416895),請回復“知識星球”

喜歡文章,點個在看

與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的90题细品吴恩达《机器学习》,感受被刷题支配的恐惧的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。