【机器学习】中国大学慕课《机器学习》课后习题(二)(回归)
部分習(xí)題來(lái)自黃海廣老師的慕課《機(jī)器學(xué)習(xí)》的課后習(xí)題,答案暫不公布,可以留言討論。
課程鏈接:
https://www.icourse163.org/course/WZU-1464096179
回歸部分習(xí)題
單選題
1. 以下哪組變量之間存在線性回歸關(guān)系?( )
A.??正方形的邊長(zhǎng)與面積
B. 學(xué)生的性別與他的成績(jī)
C. 兒子的身高與父親的身高
D. 正三角形的邊長(zhǎng)與周長(zhǎng)
2.回歸問(wèn)題和分類(lèi)問(wèn)題的區(qū)別是?( )
A.?回歸問(wèn)題有標(biāo)簽,分類(lèi)問(wèn)題沒(méi)有
B. 回歸問(wèn)題輸出值是連續(xù)的,分類(lèi)問(wèn)題輸出值是離散的
C. 回歸問(wèn)題輸出值是離散的,分類(lèi)問(wèn)題輸出值是連續(xù)的
D. 回歸問(wèn)題與分類(lèi)問(wèn)題在輸入屬性值上要求不同
3. 以下說(shuō)法錯(cuò)誤的是?( )
A.?最小二乘法不需要選擇學(xué)習(xí)率
B. 殘差是預(yù)測(cè)值與真實(shí)值之間的差值
C. 正則項(xiàng)的目的是為了避免模型過(guò)擬合
D. 損失函數(shù)越小,模型訓(xùn)練得一定越好
4.哪些算法不需要數(shù)據(jù)歸一化?( )
A. K-means
B. KNN
C.?決策樹(shù)
D. SVM
5.以下哪些方法不能用于處理欠擬合?( )
A.?增加模型復(fù)雜度
B. 增加新的特征
C. 增大正則化系數(shù)
D. 對(duì)特征進(jìn)行變換,使用組合特征或高維特征
6.以下哪些方法不能用于處理過(guò)擬合?( )
A. 增加數(shù)據(jù)屬性的復(fù)雜度
B. 對(duì)數(shù)據(jù)進(jìn)行清洗
C. 增大訓(xùn)練數(shù)據(jù)的量
D. 利用正則化技術(shù)
7.下列關(guān)于線性回歸分析中的殘差(Residuals)說(shuō)法正確的是?( )
A.?殘差均值總是小于零
B. 殘差均值總是為零
C. 殘差均值總是大于零
D. 以上說(shuō)法都不對(duì)
8.為了觀察測(cè)試 Y 與 X 之間的線性關(guān)系,X 是連續(xù)變量,使用下列哪種圖形比較適合?( )
A.?直方圖
B. 柱形圖
C. 散點(diǎn)圖
D. 以上都不對(duì)
9.假如你在訓(xùn)練一個(gè)線性回歸模型,則:
1. 如果數(shù)據(jù)量較少,容易發(fā)生過(guò)擬合。
2. 如果假設(shè)空間較小,容易發(fā)生過(guò)擬合。
關(guān)于這兩句話(huà),下列說(shuō)法正確的是?( )
A.?1 錯(cuò)誤,2 正確
B. 1 和 2 都錯(cuò)誤
C. 1 正確,2 錯(cuò)誤
D. 1 和 2 都正確
10.關(guān)于特征選擇,下列對(duì) Ridge 回歸和 Lasso 回歸說(shuō)法正確的是?( )
A. Ridge 回歸適用于特征選擇
B.?Lasso 回歸適用于特征選擇
C. 兩個(gè)都適用于特征選擇
D. 以上說(shuō)法都不對(duì)
11.構(gòu)建一個(gè)最簡(jiǎn)單的線性回歸模型需要幾個(gè)系數(shù)(只有一個(gè)特征)?( )
A. 1 個(gè)
B. 2 個(gè)
C. 3 個(gè)
D. 4 個(gè)
12. 向量x=[1,2,3,4,-9,0]的L1范數(shù)是多少?( )
A. 1
B. 19
C. 6
D. √111? ? ? ? ?
多選題
13. 以下哪些是使用數(shù)據(jù)規(guī)范化(特征縮放)的原因?( )
A. 它通過(guò)減少迭代次數(shù)來(lái)獲得一個(gè)好的解,從而加快了梯度下降的速度
B.?它防止矩陣X^T X不可逆(奇異/退化)
C. 它通過(guò)降低梯度下降的每次迭代的計(jì)算成本來(lái)加速梯度下降
D. 它不能防止梯度下降陷入局部最優(yōu)
14. 線性回歸中,我們可以使用最小二乘法來(lái)求解系數(shù),下列關(guān)于最小二乘法說(shuō)法正確的是?( )
A.不需要選擇學(xué)習(xí)率
B.當(dāng)特征數(shù)量很多的時(shí)候,運(yùn)算速度會(huì)很慢
C.不需要迭代訓(xùn)練
D.只適用于線性模型,不適合邏輯回歸模型等其他模型
15. 欠擬合的處理主要有哪些方式:( )
A.添加新特征
B.增加模型復(fù)雜度
C.減小正則化系數(shù)
D.增大正則化系數(shù)
16. 假如使用一個(gè)較復(fù)雜的回歸模型來(lái)擬合樣本數(shù)據(jù),使用 Ridge回歸,調(diào)試正則化參數(shù),來(lái)降低模型復(fù)雜度,若正則化系數(shù)較大時(shí),關(guān)于偏差(bias)和方差(variance),下列說(shuō)法正確的是?( )
A.偏差減小
B.偏差增大
C,方差減小
D.方差增大
判斷題
17. 如果兩個(gè)變量相關(guān),那么它們一定是線性關(guān)系。( )
18. 過(guò)擬合的處理可以通過(guò)減小正則化系數(shù)。( )
19.隨機(jī)梯度下降,每次迭代時(shí)候,使用一個(gè)樣本。( )
20. L_2正則化往往用于防止過(guò)擬合,而L_1正則化往往用于特征選擇。( )
總結(jié)
以上是生活随笔為你收集整理的【机器学习】中国大学慕课《机器学习》课后习题(二)(回归)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: java问题,(x.equals(y)
- 下一篇: Python二叉树遍历