日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

刷题笔记2

發布時間:2024/3/7 编程问答 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 刷题笔记2 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1、若一序列進棧順序為a1,a2,a3,a4,問存在多少種可能的出棧序列( )

A 12? ? ? ? ? ? B 13? ? ? ? ? ?C 14? ? ? ? ? ?D 15

答案:C

2、下列屬于有監督學習算法的是:()

A 譜聚類? ? ? ? B 主成分分析PCA? ? ? ? C 主題模型LDA? ? ? ?D 線性判別分析LDA

答案:D

3、以下是產生式模型的機器學習算法為:

A LR? ? ? ? ? ? ?B? ?SVM? ? ? ? ?C 神經網絡? ? ? ? ? ?D HMM

答案:D

4、一個序列為(13,18,24,35,47,50,63,83,90,115,124),如果利二分分法查找關鍵字為90的,則需要幾次比較 ?

A 1? ? ? ? ? ? ?B 2? ? ? ? ? ? ? ? C? ? 3? ? ? ? ? ? ? ? ? ? ? D 4

答案:B

5、已知一個二叉樹前序遍歷和中序遍歷分別為ABDEGCFH和DBGEACHF,則該二叉樹的后序遍歷為?

A、DGEBHFCA? ? ? ? ? ? B.DGEBHFAC? ? ? ? ? ? C.?GEDBHFCA? ? ? ? ? ? ?D.??ABCDEFGH

答案:A

其實根據前序遍歷和中序遍歷就能確定根節點是A,D是最下層最左邊的節點。

6、以下關于共軛梯度說法正確的是

A共軛梯度需要計算hessien矩陣的逆? ? ? ? ? ? ? ? ? ?B共軛梯度只需要一階梯度即可,所以收斂速度較慢

C共軛梯度法所需的存儲量小,收斂快,穩定性高的優點? ? ? ? ?D共軛梯度梯度方向與最速下降法的梯度相同

答案:C

7、以下關于準確率,召回, f1-score說法錯誤的是:

A準確率為TP/(TP+FP)? ? ? ? ? ??B召回率為TP/(TP + FN)? ? ? ? ? ? ?

C?f1-score為 2TP/(2TP + FP + FN)? ? ? ? ??D??f1-score為 準確率*召回率/(準確率+召回率)

答案:D

8、在貝葉斯線性回歸中, 假定使然概率和先驗概率都為高斯分布, 假設先驗概率的高斯準確率參數為a, 似然概率的高斯準確率參數為b, 則后驗概率相當于平方誤差+L2正則,則其正則化參數為

A?a + b? ? ? ? ? ? ? ? ? ??B?a / b? ? ? ? ? ? ??C? a^2 + b^2? ? ? ? ??D??a^2 / (b^2)

答案:A

沒找到相關資料,誰知道跟我解釋下吧

9、在以下操作中,把14,27,71,50,93,39按順序插入樹,形成平衡二叉樹高度為?

A 3? ? ? ? ? ? B 4? ? ? ? ? ?C 5? ? ? ? ? ? ?D 6

答案:A

10、兩個隨機變量x,y,服從聯合概率分布p(x,y), 以下等式成立的有

A? ? ??B? ?C? ? ? ?D

答案:AC

11、以下關于batch normalization說法正確的是

A?normalization的均值方差計算是基于全部訓練數據的

B?normalization的均值方差只基于當前的minibatch

C?normalization對輸入層的每一維單獨計算均值方差

D?normalization的輸出分布服從均值為0,方差為1的高斯分布

答案:BC

12、以下關于二項分布說法正確的是

A?二項分布是一種離散概率分布,表示在n次伯努利試驗中, 試驗k次才得到第一次成功的概率

B?二項分布是一種離散概率分布,表示在n次伯努利試驗中,有k次成功的概率

C?當n很大時候,二項分布可以用泊松分布和高斯分布逼近

D?當n很大時候,二項分布可以高斯斯分布逼近,但不能用泊松分布逼近

答案:BC

13、以下關于random forest說法錯誤的是

A?rf中的每棵子樹都是獨立同分布的

B?rf中模型方差隨著子樹的增加而減少

C?rf主要通過增加子樹之間的相關性來減少模型的方差

D??rf中模型偏差隨著子樹的增加而減少

答案: AD

14、在機器學習中,經常采用線性變換,將基變換為正交基, 下列矩陣式正交矩陣的是? ??

A?

B?

C?

D?

答案:AC

The orthogonal matrix,正交矩陣,如果一個矩陣滿足以下幾個條件,則此矩陣就是正交矩陣:

(1)是一個方陣

(2)和自己的轉置矩陣的矩陣乘積 = 單位矩陣E

如果A為一個正交矩陣,則A滿足以下條件:

1) A的轉置矩陣也是正交矩陣

2)??(E為單位矩陣)

3) A的各行是單位向量且兩兩正交

4) A的各列是單位向量且兩兩正交

5) (Ax,Ay)=(x,y) x,y∈R

6) |A| = 1或-1

7)??,A的轉置矩陣等于A的逆矩陣

15、關于x,y的函數f(x,y)=x*e^(-x^2-y^2),(x,y∈R),則該函數有_____個極小值點

A 0? ? ? ? ? ? ? ? ?B 1? ? ? ? ? ? ? ?C 2? ? ? ? ? ? ? ? ? ? D 3

答案:B

16、隨機變量X1,X2...X100都服從[1,9]的均勻分布,則(X1+X2+...+X100)/100近似服從

A 高斯分布? ? ? ? ? ?B 泊松分布? ? ? ? ?C 均勻分布? ? ? ? ? ? D 指數分布

答案:高斯分布

對于服從均勻分布的隨機變量,只要n充分大,隨機變量?就服從均值為零,方差為1的正態分布。

17、某二叉樹有2000個結點,則該二叉樹的最小高度為()

A 10? ? ? ? ? ? ?B 11? ? ? ? ? ? ? C 12? ? ? ? ? ? ? ? ?D 13

答案:B

節點與深度的關系:2^k -1 =n

18、下列方面不可以防止過擬合的是()

A?加入正則項? ? ? ? ? ??B?增加樣本? ? ? ? ?C?建立更加復雜的模型? ? ?D?Bootstrap重采樣

答案:C

19、使用中根遍歷一棵二叉樹得到E A C K F H D B G,則先根遍歷將得到()

A? ??FAEKCDBHG? ? ? ? ? ? ? ? ? ? ? ?B? ? FAEKCDHGB? ? ? ? ? ? ??C??EAFKHDCBG? ? ? ? ??D? ?FEAKDCHBG

答案:B

20、以下哪些模型是無向圖

A 樸素貝葉斯? ? ? ? ? B LR? ? ? ? ? ?C? CRF? ? ? ? D HMM

答案:BC

21、協同過濾經常被用于推薦系統, 包含基于內存的協同過濾, 基于模型的協同過濾以及混合模型, 以下說法正確的是

A基于模型的協同過濾能比較好的處理數據稀疏的問題

B基于模型的協同過濾不需要item的內容信息

C基于內存的協同過濾可以較好解決冷啟動問題

D基于內存的協同過濾實現比較簡單, 新數據可以較方便的加入

答案:AD

22、以下關于神經網絡說法正確的是

A神經網絡可以實現非線性分類

B神經網絡可以實現線性分類

C神經網絡的每層神經元激活函數必須相同

D神經網絡的每層神經元激活函數值閾必須在[-1,1]

答案:AB

23、以下為防止過擬合的方法的是

A增加樣本? ? ? ? ?B?L1正則? ??C交叉驗證? ? ?D增加復雜特征

答案:ABC

24、CRF模型可以用來做專名識別, 語義消歧等, 以下關于CRF模型說法正確的是

A? ?CRF模型是產生式模型? ? ? ? ? ? B? ?CRF模型是判別式模型? ? ? ? ?C??CRF模型的圖模型為無向圖? ??D?CRF模型的圖模型為有向圖

答案:BC

25、以下屬于凸函數的是()

A?e^x? ? ? ? ? ? ??B??e^a? ? ? ? ?C??log(x)? ? ? ??D??f(x, y) = x2/y

答案:AD

26、以下說法正確的是

A?XOR問題不能簡單的用線性分類解決

B?XOR問題可以通過2層感知器解決

C?XOR可以通過LR模型解決

D?XOR可以通過單層感知器解決

答案:AB

27、以下是基于圖的特征降維方法的是

A? ?LE(Laplacian eigenmap)? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??B??LLE(local linear embedding)

C??PCA? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?D??KL

答案:AB
Principal Component Analysis(PCA)是最常用的線性降維方法,它的目標是通過某種線性投影,將高維的數據映射到低維的空間中表示,并期望在所投影的維度上數據的方差最大,以此使用較少的數據維度,同時保留住較多的原數據點的特性。

Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一種有監督的(supervised)線性降維算法。與PCA保持數據信息不同,LDA是為了使得降維后的數據點盡可能地容易被區分!

Locally linear embedding(LLE)[1]是一種非線性降維算法,它能夠使降維后的數據較好地保持原有流形結構。LLE可以說是流形學習方法最經典的工作之一。很多后續的流形學習、降維方法都與LLE有密切聯系。

Laplacian Eigenmaps(拉普拉斯特征映射)看問題的角度和LLE有些相似,也是用局部的角度去構建數據之間的關系。它的直觀思想是希望相互間有關系的點(在圖中相連的點)在降維后的空間中盡可能的靠近。Laplacian Eigenmaps可以反映出數據內在的流形結構。

其中最后后兩種是基于圖的特征降維方法。

28、使用LR來擬合數據, 一般隨機將數據分為訓練集和測試集。 則隨著訓練集合的數據越來越多, 以下說法正確的是

A測試集上的測試誤差會越來越大

B測試集上的測試誤差會越來越小

C訓練集上的訓練誤差會越來越小

D訓練集上的訓練誤差會越來越大

答案:BD

前提:測試數據不變,只增加訓練數據

1.減少過擬合,泛化更好,測試誤差變小

2.訓練集多樣性增加,數據輸入分布改變,訓練誤差變大

29、有A,B 兩個國家,人口比例為4:6,A國的犯罪率為0.1%,B國的為0.2%?,F在有一個新的犯罪事件,發生在A國的概率是?

A0.15? ? ? ? ? ? ? B0.25? ? ? ? ? ? ? ? ?C 0.35? ? ? ? ? ? D 0.45

答案:0.25

總結

以上是生活随笔為你收集整理的刷题笔记2的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。