《机器学习概论》习题答案
生活随笔
收集整理的這篇文章主要介紹了
《机器学习概论》习题答案
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
## 判斷題
VC維是用來解決假設空間里的無限假設空間問題。 [正確]
基于實例的遷移學習的基本假設是源領域和目標領域中數據形式是相同的。[正確]
在所有聚類算法中,同一個對象只能屬于一個類 [錯誤]
Boosting每一輪會增加分類錯誤樣本的權重。[正確]
決策樹ID3算法找到的是假設空間的局部最優解。[正確]
為了避免評估的偏差(bias),訓練集和測試集應該相互獨立。[正確]
高斯混合模型中各個分布是獨立同分布的。[錯誤]
伯努利分布下很容易計算置信區間,但正態分布下就難以計算置信區間。[錯誤]
聚類的相似度度量需要滿足傳遞性 [正確]
不可知學習器、一致學習器、VC維等可以用來計算樣本的復雜度。[正確]
一般來講,基于實例的遷移學習將數量較多的源領域數據的知識遷移到目標領域。[正確]
核函數需要通過顯式的輸入空間到特征空間的映射來表示。[錯誤]
隱馬爾可夫模型主要要解決評估問題和解碼問題兩個問題。[正確]
EM問題可以求解缺少標簽情況下的極大似然。[錯誤]
支持向量機屬于貝葉斯分類器。[錯誤]## 單選題
如果一個維度為d的樣本不能被假設空間打散,那么假設空間的VC維為?[D]
A d+1
B d-1
C d
D 不確定 [選D]VC維是用來解決什么假設空間里的問題的?[C]
A 不可知空間
B 有限假設空間
C 無限假設空間
D 樣本空間集成學習對弱監督器的要求是?[A]
A 效果要好于隨機
B 任意效果即可
C 效果一定大于1/2
D 效果可以等于隨機下列哪項是貝葉斯公式[B]
A P(h|D)=P(D|h)P(D)/P(h)
B P(h|D)=P(D|h)P(h)/P(D)
C P(h|D)=P(D)P(h)/P(D|h)
D P(h|D)=P(D)P(h)下列哪項是極大后驗假設
A h=argmax(h){P(D|h)P(h)}[選A]
B h=argmax(h){P(h|D)P(h)}
C h=argmax(h){P(D|h)P(D)}
D h=argmax(h){P(D|h)}[不選D]為了避免評估的偏差(bias),訓練集和測試集應該?[A]
A 相互獨立
B 訓練集樣本數遠遠大于測試集
C 訓練集樣本不包含測試集樣本即可
D 同分布Boosting每一輪會增加哪些樣本的權重? [B]
A 分類正確的
B 分類錯誤的
C 樣本數少的類別
D 樣本數多的類別下列說法正確的是[A]
A 加權多數可以用于不同學習器。
B Bagging一般用于融合不同學習器。
C Bagging每一輪使用的訓練集相同。
D Boosting的每一輪之間可以并行。EM算法的收斂條件可以是?[A]
A 每一輪參數變化小于某一值
B 迭代到一定輪次之后
C 分類正確率到達一定值
D 錯誤率降低到一定值我們通過分情況討論,討論了不可知學習器、一致學習器、VC維等,可以用來計算?[B]
A 出錯界限[不選A]
B 樣本復雜度
C 樣本空間維度
D 假設空間維度構建 KD-Tree 時,確定分割維度后分割的值按照哪個統計指標更合適[C]
A 均值
B 眾數
C 中位數
D 方差支持向量機屬于[B]
A 基于實例的分類器
B 最大間隔分類器[]
C 神經網絡分類器[不選C]
D 貝葉斯分類器 [不選D]利用 KD-Tree 查詢給定數據點的最近鄰居時,以下哪種情況可以被剪枝[B]
A 當前樹節點所包含數據的邊界距離查詢點的距離小于已知最小距離[不選A]
B 當前樹節點所包含數據的邊界距離查詢點的距離大于已知最小距離
C 當前樹節點所包含數據的邊界距離查詢點的距離大于已知最大距離
D 當前樹節點所包含數據的邊界距離查詢點的距離小于已知最大距離前向算法的復雜度是多少?[A]
A O(N^2T)
B O(NT)
C O(TN^T)
D O(NT^2)EM問題可以求解哪些情況下的極大似然?[A]
A 缺失數據
B 含有隱變量[不選B]
C 數據不符合正態分布
D 缺少標簽 [不選D]我們已知用戶的購物行為和社交網絡兩個領域的知識,我們通過構建兩個任務并且共享用戶偏好的學習,這種遷移學習屬于?[C]
A 基于實例的遷移學習[不選A]
B 基于特征的遷移學習[不選B]
C 基于參數的遷移學習
D 深度遷移學習對于一個r維的空間,假設空間H是一個線性平面,那么H的VC維是?[C]
A r[不選A]
B r-1
C r+1
D 無窮[不選D]將一個能夠區分不同動物的模型遷移到區分不同魚的任務中,屬于哪一種遷移學習?
A 基于實例的遷移學習[不選A]
B 基于特征的遷移學習[選B]
C 基于參數的遷移學習
D 深度遷移學習下列哪項是極大似然假設
A h=argmax(h){P(D|h)P(h)}[不選A]
B h=argmax(h){P(h|D)P(h)}[不選B]
C h=argmax(h){P(D|h)P(D)}[不選C]
D h=argmax(h){P(D|h)}最小均方誤差算法用梯度下降法訓練時,更新權重所乘的小常數 c 作用是
A 防止溢出[不選A]
B 控制學習速度[選B]
C 平滑誤差計算
D 篩選特征下列關于Boosting的說法正確的是
A 每一輪提高錯誤樣本的權重。[選A]
B 每一輪降低錯誤樣本的權重。[不選B]
C 不容易受到噪聲影響。
D 不會過擬合。[不選D]如果任意一個有限集合樣本集合X能夠被假設空間H打散,那么這個假設空間的VC維是?
A 不存在[不選A]
B 0
C 1
D 無窮[選D]EM算法中,計算新一輪迭代的模型參數是在哪一步?
A 參數初始化階段[不選A]
B E步驟[不選B]
C M步驟[選C]
D 反向傳播階段參數p的N%置信區間是一個以N%的概率包含p的區間,那么N%是什么?
A 區間面積[不選A]
B 置信度[選B]
C 標準差
D 準確率[不選D]如果用 X 表示樣例,Y 表示標簽,無監督學習關注的分布是
A P(Y)[不選A]
B P(Y|X)[不選]
C P(X)
D P(X|Y)
總結
以上是生活随笔為你收集整理的《机器学习概论》习题答案的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 魔兽世界怀旧服怎么完成诺格弗格药剂任务
- 下一篇: QPainter函数setClipRec