日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习算法总结

發布時間:2023/12/8 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习算法总结 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

~~~~~·個人整理,如需轉載,請說明并備注,不甚感激~~~~~~

(這篇文章我很早發布在簡書上,不用簡書好多年了,哈哈哈,居然上了熱搜,特復制在CSDN上供大家參考,為秋招攢點人品)suxuer簡書原文地址

BAT機器學習面試系列

1.請簡要介紹下SVM。

SVM,全稱是support vector machine,中文名叫支持向量機。SVM是一個面向數據的分類算法,它的目標是為確定一個分類超平面,從而將不同的數據分隔開。

擴展:

支持向量機學習方法包括構建由簡至繁的模型:線性可分支持向量機、線性支持向量機及非線性支持向量機。當訓練數據線性可分時,通過硬間隔最大化,學習一個線性的分類器,即線性可分支持向量機,又稱為硬間隔支持向量機;當訓練數據近似線性可分時,通過軟間隔最大化,也學習一個線性的分類器,即線性支持向量機,又稱為軟間隔支持向量機;當訓練數據線性不可分時,通過使用核技巧及軟間隔最大化,學習非線性支持向量機。

支持向量機通俗導論(理解SVM的三層境界)

機器學習之深入理解SVM

2.請簡要介紹下Tensorflow的計算圖。

@寒小陽:Tensorflow是一個通過計算圖的形式來表述計算的編程系統,計算圖也叫數據流圖,可以把計算圖看做是一種有向圖,Tensorflow中的每一個計算都是計算圖上的一個節點,而節點之間的邊描述了計算之間的依賴關系。?

3.請問GBDT和XGBoost的區別是什么?

@Xijun LI:XGBoost類似于GBDT的優化版,不論是精度還是效率上都有了提升。與GBDT相比,具體的優點有:?

1.損失函數是用泰勒展式二項逼近,而不是像GBDT里的就是一階導數;?

2.對樹的結構進行了正則化約束,防止模型過度復雜,降低了過擬合的可能性;?

3.節點分裂的方式不同,GBDT是用的基尼系數,XGBoost是經過優化推導后的。

知識點鏈接:集成學習總結

4.在k-means或kNN,我們是用歐氏距離來計算最近的鄰居之間的距離。為什么不用曼哈頓距離?

曼哈頓距離只計算水平或垂直距離,有維度的限制。另一方面,歐氏距離可用于任何空間的距離計算問題。因為,數據點可以存在于任何空間,歐氏距離是更可行的選擇。例如:想象一下國際象棋棋盤,象或車所做的移動是由曼哈頓距離計算的,因為它們是在各自的水平和垂直方向做的運動。

5.百度2015校招機器學習筆試題。

知識點鏈接:百度2015校招機器學習筆試題

6.簡單說說特征工程。

7.關于LR。

@rickjin:把LR從頭到腳都給講一遍。建模,現場數學推導,每種解法的原理,正則化,LR和maxent模型啥關系,LR為啥比線性回歸好。有不少會背答案的人,問邏輯細節就糊涂了。原理都會? 那就問工程,并行化怎么做,有幾種并行化方式,讀過哪些開源的實現。還會,那就準備收了吧,順便逼問LR模型發展歷史。

聲明:由于原文中的鏈接已經失效,故而自己補充了一個新的鏈接

知識點鏈接:機器學習之Logistic回歸(邏輯蒂斯回歸)

8.overfitting怎么解決?

dropout、regularization、batch normalizatin

9.LR和SVM的聯系與區別?

@朝陽在望,聯系:?

1、LR和SVM都可以處理分類問題,且一般都用于處理線性二分類問題(在改進的情況下可以處理多分類問題)?

2、兩個方法都可以增加不同的正則化項,如L1、L2等等。所以在很多實驗中,兩種算法的結果是很接近的。?

區別:?

1、LR是參數模型,SVM是非參數模型。?

2、從目標函數來看,區別在于邏輯回歸采用的是Logistical Loss,SVM采用的是hinge loss.這兩個損失函數的目的都是增加對分類影響較大的數據點的權重,減少與分類關系較小的數據點的權重。?

3、SVM的處理方法是只考慮Support Vectors,也就是和分類最相關的少數點,去學習分類器。而邏輯回歸通過非線性映射,大大減小了離分類平面較遠的點的權重,相對提升了與分類最相關的數據點的權重。?

4、邏輯回歸相對來說模型更簡單,好理解,特別是大規模線性分類時比較方便。而SVM的理解和優化相對來說復雜一些,SVM轉化為對偶問題后,分類只需要計算與少數幾個支持向量的距離,這個在進行復雜核函數計算時優勢很明顯,能夠大大簡化模型和計算。?

5、Logic 能做的 SVM能做,但可能在準確率上有問題,SVM能做的Logic有的做不了。

答案來源:機器學習常見面試問題(一)

10.LR與線性回歸的區別與聯系?

@nishizhen?

個人感覺邏輯回歸和線性回歸首先都是廣義的線性回歸,?

其次經典線性模型的優化目標函數是最小二乘,而邏輯回歸則是似然函數,?

另外線性回歸在整個實數域范圍內進行預測,敏感度一致,而分類范圍,需要在[0,1]。邏輯回歸就是一種減小預測范圍,將預測值限定為[0,1]間的一種回歸模型,因而對于這類問題來說,邏輯回歸的魯棒性比線性回歸的要好。?

@乖乖癩皮狗:邏輯回歸的模型本質上是一個線性回歸模型,邏輯回歸都是以線性回歸為理論支持的。但線性回歸模型無法做到sigmoid的非線性形式,sigmoid可以輕松處理0/1分類問題。

11.為什么XGBoost要用泰勒展開,優勢在哪里?

@AntZ:XGBoost使用了一階和二階偏導, 二階導數有利于梯度下降的更快更準. 使用泰勒展開取得二階倒數形式, 可以在不選定損失函數具體形式的情況下用于算法優化分析.本質上也就把損失函數的選取和模型算法優化/參數選擇分開了. 這種去耦合增加了XGBoost的適用性。

12.XGBoost如何尋找最優特征?是又放回還是無放回的呢?

@AntZ:XGBoost在訓練的過程中給出各個特征的評分,從而表明每個特征對模型訓練的重要性.。XGBoost利用梯度優化模型算法, 樣本是不放回的(想象一個樣本連續重復抽出,梯度來回踏步會不會高興)。但XGBoost支持子采樣, 也就是每輪計算可以不使用全部樣本。

13.談談判別式模型和生成式模型?

判別方法:由數據直接學習決策函數 Y = f(X),或者由條件分布概率 P(Y|X)作為預測模型,即判別模型。

生成方法:由數據學習聯合概率密度分布函數 P(X,Y),然后求出條件概率分布P(Y|X)作為預測的模型,即生成模型。

由生成模型可以得到判別模型,但由判別模型得不到生成模型。

常見的判別模型有:K近鄰、SVM、決策樹、感知機、線性判別分析(LDA)、線性回歸、傳統的神經網絡、邏輯斯蒂回歸、boosting、條件隨機場

常見的生成模型有:樸素貝葉斯、隱馬爾可夫模型、高斯混合模型、文檔主題生成模型(LDA)、限制玻爾茲曼機

14.L1和L2的區別。

L1范數(L1 norm)是指向量中各個元素絕對值之和,也有個美稱叫“稀疏規則算子”(Lasso regularization)。?

比如 向量A=[1,-1,3], 那么A的L1范數為 |1|+|-1|+|3|.?

簡單總結一下就是:?

L1范數: 為x向量各個元素絕對值之和。?

L2范數: 為x向量各個元素平方和的1/2次方,L2范數又稱Euclidean范數或Frobenius范數

Lp范數: 為x向量各個元素絕對值p次方和的1/p次方.?

在支持向量機學習過程中,L1范數實際是一種對于成本函數求解最優的過程,因此,L1范數正則化通過向成本函數中添加L1范數,使得學習得到的結果滿足稀疏化,從而方便人類提取特征。?

L1范數可以使權值稀疏,方便特征提取。?

L2范數可以防止過擬合,提升模型的泛化能力。

15.L1和L2正則先驗分別服從什么分布 ?

@齊同學:面試中遇到的,L1和L2正則先驗分別服從什么分布,L1是拉普拉斯分布,L2是高斯分布。

16.CNN最成功的應用是在CV,那為什么NLP和Speech的很多問題也可以用CNN解出來?為什么AlphaGo里也用了CNN?這幾個不相關的問題的相似性在哪里?CNN通過什么手段抓住了這個共性?

@許韓

知識點鏈接(答案解析):深度學習崗位面試問題整理筆記

17.說一下Adaboost,權值更新公式。當弱分類器是Gm時,每個樣本的的權重是w1,w2…,請寫出最終的決策公式。

答案解析

18.LSTM結構推導,為什么比RNN好?

推導forget gate,input gate,cell state, hidden information等的變化;因為LSTM有進有出且當前的cell informaton是通過input gate控制之后疊加的,RNN是疊乘,因此LSTM可以防止梯度消失或者爆炸。

19.經常在網上搜索東西的朋友知道,當你不小心輸入一個不存在的單詞時,搜索引擎會提示你是不是要輸入某一個正確的單詞,比如當你在Google中輸入“Julw”時,系統會猜測你的意圖:是不是要搜索“July”,如下圖所示:

這叫做拼寫檢查。根據谷歌一員工寫的文章How to Write a Spelling Corrector顯示,Google的拼寫檢查基于貝葉斯方法。請說說的你的理解,具體Google是怎么利用貝葉斯方法,實現”拼寫檢查”的功能。

用戶輸入一個單詞時,可能拼寫正確,也可能拼寫錯誤。如果把拼寫正確的情況記做c(代表correct),拼寫錯誤的情況記做w(代表wrong),那么”拼寫檢查”要做的事情就是:在發生w的情況下,試圖推斷出c。換言之:已知w,然后在若干個備選方案中,找出可能性最大的那個c,也就是求P(c|w)P(c|w)的最大值。而根據貝葉斯定理,有:?

P(c|w)=P(w|c)P(c)P(w)P(c|w)=P(w|c)P(c)P(w)

由于對于所有備選的c來說,對應的都是同一個w,所以它們的P(w)是相同的,因此我們只要最大化P(w|c)P(c)P(w|c)P(c)即可。其中:

P(c)表示某個正確的詞的出現”概率”,它可以用”頻率”代替。如果我們有一個足夠大的文本庫,那么這個文本庫中每個單詞的出現頻率,就相當于它的發生概率。某個詞的出現頻率越高,P(c)就越大。比如在你輸入一個錯誤的詞“Julw”時,系統更傾向于去猜測你可能想輸入的詞是“July”,而不是“Jult”,因為“July”更常見。

P(w|c)表示在試圖拼寫c的情況下,出現拼寫錯誤w的概率。為了簡化問題,假定兩個單詞在字形上越接近,就有越可能拼錯,P(w|c)就越大。舉例來說,相差一個字母的拼法,就比相差兩個字母的拼法,發生概率更高。你想拼寫單詞July,那么錯誤拼成Julw(相差一個字母)的可能性,就比拼成Jullw高(相差兩個字母)。值得一提的是,一般把這種問題稱為“編輯距離”,參見程序員編程藝術第二十八~二十九章:最大連續乘積子串、字符串編輯距離。

所以,我們比較所有拼寫相近的詞在文本庫中的出現頻率,再從中挑出出現頻率最高的一個,即是用戶最想輸入的那個詞。具體的計算過程及此方法的缺陷請參見How to Write a Spelling Corrector。

20.為什么樸素貝葉斯如此“樸素”?

因為它假定所有的特征在數據集中的作用是同樣重要和獨立的。正如我們所知,這個假設在現實世界中是很不真實的,因此,說樸素貝葉斯真的很“樸素”。

21.機器學習中,為何要經常對數據做歸一化?

@zhanlijun

本題解析來源:為什么一些機器學習模型需要對數據進行歸一化?

22.談談深度學習中的歸一化問題。

詳情參見此視頻:深度學習中的歸一化

23.請簡要說說一個完整機器學習項目的流程。

1 抽象成數學問題?

明確問題是進行機器學習的第一步。機器學習的訓練過程通常都是一件非常耗時的事情,胡亂嘗試時間成本是非常高的。?

這里的抽象成數學問題,指的我們明確我們可以獲得什么樣的數據,目標是一個分類還是回歸或者是聚類的問題,如果都不是的話,如果劃歸為其中的某類問題。?

2 獲取數據?

數據決定了機器學習結果的上限,而算法只是盡可能逼近這個上限。?

數據要有代表性,否則必然會過擬合。?

而且對于分類問題,數據偏斜不能過于嚴重,不同類別的數據數量不要有數個數量級的差距。?

而且還要對數據的量級有一個評估,多少個樣本,多少個特征,可以估算出其對內存的消耗程度,判斷訓練過程中內存是否能夠放得下。如果放不下就得考慮改進算法或者使用一些降維的技巧了。如果數據量實在太大,那就要考慮分布式了。?

3 特征預處理與特征選擇?

良好的數據要能夠提取出良好的特征才能真正發揮效力。?

特征預處理、數據清洗是很關鍵的步驟,往往能夠使得算法的效果和性能得到顯著提高。歸一化、離散化、因子化、缺失值處理、去除共線性等,數據挖掘過程中很多時間就花在它們上面。這些工作簡單可復制,收益穩定可預期,是機器學習的基礎必備步驟。?

篩選出顯著特征、摒棄非顯著特征,需要機器學習工程師反復理解業務。這對很多結果有決定性的影響。特征選擇好了,非常簡單的算法也能得出良好、穩定的結果。這需要運用特征有效性分析的相關技術,如相關系數、卡方檢驗、平均互信息、條件熵、后驗概率、邏輯回歸權重等方法。?

4 訓練模型與調優?

直到這一步才用到我們上面說的算法進行訓練。現在很多算法都能夠封裝成黑盒供人使用。但是真正考驗水平的是調整這些算法的(超)參數,使得結果變得更加優良。這需要我們對算法的原理有深入的理解。理解越深入,就越能發現問題的癥結,提出良好的調優方案。?

5 模型診斷?

如何確定模型調優的方向與思路呢?這就需要對模型進行診斷的技術。?

過擬合、欠擬合 判斷是模型診斷中至關重要的一步。常見的方法如交叉驗證,繪制學習曲線等。過擬合的基本調優思路是增加數據量,降低模型復雜度。欠擬合的基本調優思路是提高特征數量和質量,增加模型復雜度。?

誤差分析 也是機器學習至關重要的步驟。通過觀察誤差樣本,全面分析誤差產生誤差的原因:是參數的問題還是算法選擇的問題,是特征的問題還是數據本身的問題……?

診斷后的模型需要進行調優,調優后的新模型需要重新進行診斷,這是一個反復迭代不斷逼近的過程,需要不斷地嘗試, 進而達到最優狀態。?

6 模型融合?

一般來說,模型融合后都能使得效果有一定提升。而且效果很好。?

工程上,主要提升算法準確度的方法是分別在模型的前端(特征清洗和預處理,不同的采樣模式)與后端(模型融合)上下功夫。因為他們比較標準可復制,效果比較穩定。而直接調參的工作不會很多,畢竟大量數據訓練起來太慢了,而且效果難以保證。?

7 上線運行?

這一部分內容主要跟工程實現的相關性比較大。工程上是結果導向,模型在線上運行的效果直接決定模型的成敗。 不單純包括其準確程度、誤差等情況,還包括其運行的速度(時間復雜度)、資源消耗程度(空間復雜度)、穩定性是否可接受。?

這些工作流程主要是工程實踐上總結出的一些經驗。并不是每個項目都包含完整的一個流程。這里的部分只是一個指導性的說明,只有大家自己多實踐,多積累項目經驗,才會有自己更深刻的認識。?

故,基于此,七月在線每一期ML算法班都特此增加特征工程、模型調優等相關課。比如,這里有個公開課視頻《特征處理與特征選擇》。

24.new 和 malloc的區別?

知識點鏈接:new 和 malloc的區別

25.hash 沖突及解決辦法?

@Sommer_Xia

關鍵字值不同的元素可能會映象到哈希表的同一地址上就會發生哈希沖突。解決辦法:?

1)開放定址法:當沖突發生時,使用某種探查(亦稱探測)技術在散列表中形成一個探查(測)序列。沿此序列逐個單元地查找,直到找到給定 的關鍵字,或者碰到一個開放的地址(即該地址單元為空)為止(若要插入,在探查到開放的地址,則可將待插入的新結點存人該地址單元)。查找時探查到開放的 地址則表明表中無待查的關鍵字,即查找失敗。?

2) 再哈希法:同時構造多個不同的哈希函數。?

3)鏈地址法:將所有哈希地址為i的元素構成一個稱為同義詞鏈的單鏈表,并將單鏈表的頭指針存在哈希表的第i個單元中,因而查找、插入和刪除主要在同義詞鏈中進行。鏈地址法適用于經常進行插入和刪除的情況。?

4)建立公共溢出區:將哈希表分為基本表和溢出表兩部分,凡是和基本表發生沖突的元素,一律填入溢出表。

26.如何解決梯度消失和梯度膨脹?

(1)梯度消失:?

根據鏈式法則,如果每一層神經元對上一層的輸出的偏導乘上權重結果都小于1的話,那么即使這個結果是0.99,在經過足夠多層傳播之后,誤差對輸入層的偏導會趨于0。?

可以采用ReLU激活函數有效的解決梯度消失的情況。?

(2)梯度膨脹:?

根據鏈式法則,如果每一層神經元對上一層的輸出的偏導乘上權重結果都大于1的話,在經過足夠多層傳播之后,誤差對輸入層的偏導會趨于無窮大。

可以通過激活函數來解決。

27.下列哪個不屬于CRF模型對于HMM和MEMM模型的優勢( )

A. 特征靈活?

B. 速度快?

C. 可容納較多上下文信息?

D. 全局最優?

解答:首先,CRF,HMM(隱馬模型),MEMM(最大熵隱馬模型)都常用來做序列標注的建模。?

隱馬模型一個最大的缺點就是由于其輸出獨立性假設,導致其不能考慮上下文的特征,限制了特征的選擇。?

最大熵隱馬模型則解決了隱馬的問題,可以任意選擇特征,但由于其在每一節點都要進行歸一化,所以只能找到局部的最優值,同時也帶來了標記偏見的問題,即凡是訓練語料中未出現的情況全都忽略掉。?

條件隨機場則很好的解決了這一問題,他并不在每一個節點進行歸一化,而是所有特征進行全局歸一化,因此可以求得全局的最優值。

答案為B。

28.簡單說下有監督學習和無監督學習的區別?

有監督學習:對具有標記的訓練樣本進行學習,以盡可能對訓練樣本集外的數據進行分類預測。(LR,SVM,BP,RF,GBDT)?

無監督學習:對未標記的樣本進行訓練學習,比發現這些樣本中的結構知識。(KMeans,DL)

29.了解正則化么?

正則化是針對過擬合而提出的,以為在求解模型最優的是一般優化最小的經驗風險,現在在該經驗風險上加入模型復雜度這一項(正則化項是模型參數向量的范數),并使用一個rate比率來權衡模型復雜度與以往經驗風險的權重,如果模型復雜度越高,結構化的經驗風險會越大,現在的目標就變為了結構經驗風險的最優化,可以防止模型訓練過度復雜,有效的降低過擬合的風險。?

奧卡姆剃刀原理,能夠很好的解釋已知數據并且十分簡單才是最好的模型。

30.協方差和相關性有什么區別?

相關性是協方差的標準化格式。協方差本身很難做比較。例如:如果我們計算工資($)和年齡(歲)的協方差,因為這兩個變量有不同的度量,所以我們會得到不能做比較的不同的協方差。為了解決這個問題,我們計算相關性來得到一個介于-1和1之間的值,就可以忽略它們各自不同的度量。

31.線性分類器與非線性分類器的區別以及優劣。

如果模型是參數的線性函數,并且存在線性分類面,那么就是線性分類器,否則不是。?

常見的線性分類器有:LR,貝葉斯分類,單層感知機、線性回歸。?

常見的非線性分類器:決策樹、RF、GBDT、多層感知機。?

SVM兩種都有(看線性核還是高斯核)。?

線性分類器速度快、編程方便,但是可能擬合效果不會很好。?

非線性分類器編程復雜,但是效果擬合能力強。

32.數據的邏輯存儲結構(如數組,隊列,樹等)對于軟件開發具有十分重要的影響,試對你所了解的各種存儲結構從運行速度、存儲效率和適用場合等方面進行簡要地分析。

33.什么是分布式數據庫?

分布式數據庫系統是在集中式數據庫系統成熟技術的基礎上發展起來的,但不是簡單地把集中式數據庫分散地實現,它具有自己的性質和特征。集中式數據庫系統的許多概念和技術,如數據獨立性、數據共享和減少冗余度、并發控制、完整性、安全性和恢復等在分布式數據庫系統中都有了不同的、更加豐富的內容。

34.簡單說說貝葉斯定理。

在引出貝葉斯定理之前,先學習幾個定義:?

條件概率(又稱后驗概率)就是事件A在另外一個事件B已經發生條件下的發生概率。條件概率表示為P(A|B),讀作“在B條件下A的概率”。?

比如,在同一個樣本空間Ω中的事件或者子集A與B,如果隨機從Ω中選出的一個元素屬于B,那么這個隨機選擇的元素還屬于A的概率就定義為在B的前提下A的條件概率,所以:P(A|B) = |A∩B|/|B|,接著分子、分母都除以|Ω|得到:?

P(A|B)=P(A∩B)P(B)P(A|B)=P(A∩B)P(B)

聯合概率表示兩個事件共同發生的概率。A與B的聯合概率表示為P(A∩B)P(A∩B)或者P(A,B)P(A,B)。

邊緣概率(又稱先驗概率)是某個事件發生的概率。邊緣概率是這樣得到的:在聯合概率中,把最終結果中那些不需要的事件通過合并成它們的全概率,而消去它們(對離散隨機變量用求和得全概率,對連續隨機變量用積分得全概率),這稱為邊緣化(marginalization),比如A的邊緣概率表示為P(A),B的邊緣概率表示為P(B)。?

接著,考慮一個問題:P(A|B)是在B發生的情況下A發生的可能性。?

1)首先,事件B發生之前,我們對事件A的發生有一個基本的概率判斷,稱為A的先驗概率,用P(A)表示;?

2)其次,事件B發生之后,我們對事件A的發生概率重新評估,稱為A的后驗概率,用P(A|B)表示;?

3)類似的,事件A發生之前,我們對事件B的發生有一個基本的概率判斷,稱為B的先驗概率,用P(B)表示;?

4)同樣,事件A發生之后,我們對事件B的發生概率重新評估,稱為B的后驗概率,用P(B|A)表示。

貝葉斯定理的公式表達式:?

P(A|B)=P(B|A)P(A)P(B)P(A|B)=P(B|A)P(A)P(B)

35.#include 和#include“filename.h”有什么區別?

知識點鏈接:#include 和 #include”filename.h”有什么區別

36.某超市研究銷售紀錄數據后發現,買啤酒的人很大概率也會購買尿布,這種屬于數據挖掘的哪類問題?(A)?

A. 關聯規則發現 B. 聚類 C. 分類 D. 自然語言處理

37.將原始數據進行集成、變換、維度規約、數值規約是在以下哪個步驟的任務?(C)?

A. 頻繁模式挖掘 B. 分類和預測 C. 數據預處理 D. 數據流挖掘

38.下面哪種不屬于數據預處理的方法? (D)?

A變量代換 B離散化 C 聚集 D 估計遺漏值

39.什么是KDD? (A)?

A. 數據挖掘與知識發現 B. 領域知識發現C. 文檔知識發現 D. 動態知識發現

40.當不知道數據所帶標簽時,可以使用哪種技術促使帶同類標簽的數據與帶其他標簽的數據相分離?(B)?

A. 分類 B. 聚類 C. 關聯分析 D. 隱馬爾可夫鏈

41.建立一個模型,通過這個模型根據已知的變量值來預測其他某個變量值屬于數據挖掘的哪一類任務?(C)?

A. 根據內容檢索 B. 建模描述?

C. 預測建模 D. 尋找模式和規則

42.以下哪種方法不屬于特征選擇的標準方法?(D)?

A嵌入 B 過濾 C 包裝 D 抽樣

43.請用python編寫函數find_string,從文本中搜索并打印內容,要求支持通配符星號和問號。

find_string('hello\nworld\n','wor')['wor']find_string('hello\nworld\n','l*d')['ld']find_string('hello\nworld\n','o.')['or']答案deffind_string(str,pat):importrereturnre.findall(pat,str,re.I)

1

2

3

4

5

6

7

8

9

10

44.說下紅黑樹的五個性質。

教你初步了解紅黑樹

45.簡單說下sigmoid激活函數。

常用的非線性激活函數有sigmoid、tanh、relu等等,前兩者sigmoid/tanh比較常見于全連接層,后者relu常見于卷積層。這里先簡要介紹下最基礎的sigmoid函數(btw,在本博客中SVM那篇文章開頭有提過)。

Sigmoid的函數表達式如下:

也就是說,Sigmoid函數的功能是相當于把一個實數壓縮至0到1之間。當z是非常大的正數時,g(z)會趨近于1,而z是非常小的負數時,則g(z)會趨近于0。

壓縮至0到1有何用處呢?用處是這樣一來便可以把激活函數看作一種“分類的概率”,比如激活函數的輸出為0.9的話便可以解釋為90%的概率為正樣本。

舉個例子,如下圖(圖引自Stanford機器學習公開課):

46.什么是卷積?

對圖像(不同的數據窗口數據)和濾波矩陣(一組固定的權重:因為每個神經元的多個權重固定,所以又可以看做一個恒定的濾波器filter)做內積(逐個元素相乘再求和)的操作就是所謂的『卷積』操作,也是卷積神經網絡的名字來源。?

非嚴格意義上來講,下圖中紅框框起來的部分便可以理解為一個濾波器,即帶著一組固定權重的神經元。多個濾波器疊加便成了卷積層。

OK,舉個具體的例子。比如下圖中,圖中左邊部分是原始輸入數據,圖中中間部分是濾波器filter,圖中右邊是輸出的新的二維數據。

分解下上圖

47.什么是CNN的池化pool層?

池化,簡言之,即取區域平均或最大,如下圖所示(圖引自cs231n):

上圖所展示的是取區域最大,即上圖左邊部分中 左上角2x2的矩陣中6最大,右上角2x2的矩陣中8最大,左下角2x2的矩陣中3最大,右下角2x2的矩陣中4最大,所以得到上圖右邊部分的結果:6 8 3 4。很簡單不是?

48.簡述下什么是生成對抗網絡。

GAN之所以是對抗的,是因為GAN的內部是競爭關系,一方叫generator,它的主要工作是生成圖片,并且盡量使得其看上去是來自于訓練樣本的。另一方是discriminator,其目標是判斷輸入圖片是否屬于真實訓練樣本。?

更直白的講,將generator想象成假幣制造商,而discriminator是警察。generator目的是盡可能把假幣造的跟真的一樣,從而能夠騙過discriminator,即生成樣本并使它看上去好像來自于真實訓練樣本一樣。

如下圖中的左右兩個場景:

更多請參見此課程:生成對抗網絡

49.學梵高作畫的原理是啥?

這里有篇如何做梵高風格畫的實驗教程?教你從頭到尾利用DL學梵高作畫:GTX 1070 cuda 8.0 tensorflow gpu版,至于其原理請看這個視頻:NeuralStyle藝術化圖片(學梵高作畫背后的原理)。

50.現在有 a 到 z 26 個元素, 編寫程序打印 a 到 z 中任取 3 個元素的組合(比如 打印 a b c ,d y z等)。

一道百度機器學習工程師職位的面試題

51.哪些機器學習算法不需要做歸一化處理?

概率模型不需要歸一化,因為它們不關心變量的值,而是關心變量的分布和變量之間的條件概率,如決策樹、RF。而像Adaboost、GBDT、XGBoost、SVM、LR、KNN、KMeans之類的最優化問題就需要歸一化。

52.說說梯度下降法。

@LeftNotEasy

機器學習中的數學(1)-回歸(regression)、梯度下降(gradient descent)

53.梯度下降法找到的一定是下降最快的方向么?

梯度下降法并不是下降最快的方向,它只是目標函數在當前的點的切平面(當然高維問題不能叫平面)上下降最快的方向。在Practical Implementation中,牛頓方向(考慮海森矩陣)才一般被認為是下降最快的方向,可以達到Superlinear的收斂速度。梯度下降類的算法的收斂速度一般是Linear甚至Sublinear的(在某些帶復雜約束的問題)。

知識點鏈接:一文清晰講解機器學習中梯度下降算法(包括其變式算法)

54.牛頓法和梯度下降法有什么不同?

@wtq1993

知識點鏈接:機器學習中常見的最優化算法

55.什么是擬牛頓法(Quasi-Newton Methods)?

@wtq1993

機器學習中常見的最優化算法

56.請說說隨機梯度下降法的問題和挑戰?

57.說說共軛梯度法?

@wtq1993

機器學習中常見的最優化算法

58.對所有優化問題來說, 有沒有可能找到比現在已知算法更好的算法?

答案鏈接

59、什么最小二乘法?

我們口頭中經常說:一般來說,平均來說。如平均來說,不吸煙的健康優于吸煙者,之所以要加“平均”二字,是因為凡事皆有例外,總存在某個特別的人他吸煙但由于經常鍛煉所以他的健康狀況可能會優于他身邊不吸煙的朋友。而最小二乘法的一個最簡單的例子便是算術平均。

最小二乘法(又稱最小平方法)是一種數學優化技術。它通過最小化誤差的平方和尋找數據的最佳函數匹配。利用最小二乘法可以簡便地求得未知的數據,并使得這些求得的數據與實際數據之間誤差的平方和為最小。用函數表示為:

由于算術平均是一個歷經考驗的方法,而以上的推理說明,算術平均是最小二乘的一個特例,所以從另一個角度說明了最小二乘方法的優良性,使我們對最小二乘法更加有信心。

最小二乘法發表之后很快得到了大家的認可接受,并迅速的在數據分析實踐中被廣泛使用。不過歷史上又有人把最小二乘法的發明歸功于高斯,這又是怎么一回事呢。高斯在1809年也發表了最小二乘法,并且聲稱自己已經使用這個方法多年。高斯發明了小行星定位的數學方法,并在數據分析中使用最小二乘方法進行計算,準確的預測了谷神星的位置。

對了,最小二乘法跟SVM有什么聯系呢?請參見支持向量機通俗導論(理解SVM的三層境界)。

60、看你T恤上印著:人生苦短,我用Python,你可否說說Python到底是什么樣的語言?你可以比較其他技術或者語言來回答你的問題。

15個重要Python面試題 測測你適不適合做Python?

61.Python是如何進行內存管理的?

2017 Python最新面試題及答案16道題

62.請寫出一段Python代碼實現刪除一個list里面的重復元素。

1、使用set函數,set(list);?

2、使用字典函數:

a=[1,2,4,2,4,5,6,5,7,8,9,0]b={}b=b.fromkeys(a)c=list(b.keys())c

1

2

3

4

5

63.編程用sort進行排序,然后從最后一個元素開始判斷。

a=[1,2,4,2,4,5,7,10,5,5,7,8,9,0,3]a.sort()last=a[-1]fori inrange(len(a)-2,-1,-1):iflast==a[i]:dela[i]else:last=a[i]print(a)

1

2

3

4

5

6

7

8

9

64.Python里面如何生成隨機數?

@Tom_junsong

random模塊

隨機整數:random.randint(a,b):返回隨機整數x,a<=x<=b?

random.randrange(start,stop,[,step]):返回一個范圍在(start,stop,step)之間的隨機整數,不包括結束值。?

隨機實數:random.random( ):返回0到1之間的浮點數?

random.uniform(a,b):返回指定范圍內的浮點數。

65.說說常見的損失函數。

對于給定的輸入X,由f(X)給出相應的輸出Y,這個輸出的預測值f(X)與真實值Y可能一致也可能不一致(要知道,有時損失或誤差是不可避免的),用一個損失函數來度量預測錯誤的程度。損失函數記為L(Y, f(X))。?

常用的損失函數有以下幾種(基本引用自《統計學習方法》):

?

66.簡單介紹下Logistics回歸。

Logistic回歸目的是從特征學習出一個0/1分類模型,而這個模型是將特性的線性組合作為自變量,由于自變量的取值范圍是負無窮到正無窮。因此,使用logistic函數(或稱作sigmoid函數)將自變量映射到(0,1)上,映射后的值被認為是屬于y=1的概率。

假設函數:?

hθ(x)=g(θTx)=11+e?θTxhθ(x)=g(θTx)=11+e?θTx

其中x是n維特征向量,函數g就是Logistic函數。而:g(z)=11+e?zg(z)=11+e?z的圖像是:

可以看到,將無窮映射到了(0,1)。而假設函數就是特征屬于y=1的概率。

P(y=1|x;θ)=hθ(x);P(y=0|x;θ)=1?hθ(x)P(y=1|x;θ)=hθ(x);P(y=0|x;θ)=1?hθ(x)

67.看你是搞視覺的,熟悉哪些CV框架,順帶聊聊CV最近五年的發展史如何?

答案解析

68.深度學習在視覺領域有何前沿進展?

@元峰

本題解析來源:深度學習在計算機視覺領域的前沿進展

69.HashMap與HashTable區別?

HashMap與Hashtable的區別

70.在分類問題中,我們經常會遇到正負樣本數據量不等的情況,比如正樣本為10w條數據,負樣本只有1w條數據,以下最合適的處理方法是( )

A、將負樣本重復10次,生成10w樣本量,打亂順序參與分類?

B、直接進行分類,可以最大限度利用數據?

C、從10w正樣本中隨機抽取1w參與分類?

D、將負樣本每個權重設置為10,正樣本權重為1,參與訓練過程

@管博士:準確的說,其實選項中的這些方法各有優缺點,需要具體問題具體分析,有篇文章對各種方法的優缺點進行了分析,講的不錯 感興趣的同學可以參考一下:

How to handle Imbalanced Classification Problems in machine learning?

71.深度學習是當前很熱門的機器學習算法,在深度學習中,涉及到大量的矩陣相乘,現在需要計算三個稠密矩陣A,B,C的乘積ABC,假90設三個矩陣的尺寸分別為m?n,n?p,p?q,且m

A.(AB)C?

B.AC(B)?

C.A(BC)?

D.所以效率都相同

正確答案:A?

@BlackEyes_SGC: m*n*p

72.Nave Bayes是一種特殊的Bayes分類器,特征變量是X,類別標簽是C,它的一個假定是:( C )

A.各類別的先驗概率P(C)是相等的?

B.以0為均值,sqr(2)/2為標準差的正態分布?

C.特征變量X的各個維度是類別條件獨立隨機變量?

D.P(X|C)是高斯分布

正確答案:C?

@BlackEyes_SGC:樸素貝葉斯的條件就是每個變量相互獨立。

73.關于支持向量機SVM,下列說法錯誤的是(C)

A.L2正則項,作用是最大化分類間隔,使得分類器擁有更強的泛化能力?

B.Hinge 損失函數,作用是最小化經驗分類錯誤?

C.分類間隔為1||w||1||w||,||w||代表向量的模?

D.當參數C越小時,分類間隔越大,分類錯誤越多,趨于欠學習

正確答案:C?

@BlackEyes_SGC:?

A正確。考慮加入正則化項的原因:想象一個完美的數據集,y>1是正類,y<-1是負類,決策面y=0,加入一個y=-30的正類噪聲樣本,那么決策面將會變“歪”很多,分類間隔變小,泛化能力減小。加入正則項之后,對噪聲樣本的容錯能力增強,前面提到的例子里面,決策面就會沒那么“歪”了,使得分類間隔變大,提高了泛化能力。?

B正確。?

C錯誤。間隔應該是2||w||2||w||才對,后半句應該沒錯,向量的模通常指的就是其二范數。?

D正確。考慮軟間隔的時候,C對優化問題的影響就在于把a的范圍從[0,+inf]限制到了[0,C]。C越小,那么a就會越小,目標函數拉格朗日函數導數為0可以求出w=∑iai?yi?xiw=∑iai?yi?xi,a變小使得w變小,因此間隔2||w||2||w||變大

74.在HMM中,如果已知觀察序列和產生觀察序列的狀態序列,那么可用以下哪種方法直接進行參數估計( D )

A.EM算法?

B.維特比算法?

C.前向后向算法?

D.極大似然估計

正確答案:D?

@BlackEyes_SGC:?

EM算法: 只有觀測序列,無狀態序列時來學習模型參數,即Baum-Welch算法?

維特比算法: 用動態規劃解決HMM的預測問題,不是參數估計?

前向后向算法:用來算概率?

極大似然估計:即觀測序列和相應的狀態序列都存在時的監督學習算法,用來估計參數?

注意的是在給定觀測序列和對應的狀態序列估計模型參數,可以利用極大似然發估計。如果給定觀測序列,沒有對應的狀態序列,才用EM,將狀態序列看不不可測的隱數據。

75.假定某同學使用Naive Bayesian(NB)分類模型時,不小心將訓練數據的兩個維度搞重復了,那么關于NB的說法中正確的是:(BD)

A.這個被重復的特征在模型中的決定作用會被加強?

B.模型效果相比無重復特征的情況下精確度會降低?

C.如果所有特征都被重復一遍,得到的模型預測結果相對于不重復的情況下的模型預測結果一樣。?

D.當兩列特征高度相關時,無法用兩列特征相同時所得到的結論來分析問題?

E.NB可以用來做最小二乘回歸?

F.以上說法都不正確

正確答案:BD?

@BlackEyes_SGC:NB的核心在于它假設向量的所有分量之間是獨立的。在貝葉斯理論系統中,都有一個重要的條件獨立性假設:假設所有特征之間相互獨立,這樣才能將聯合概率拆分。

76.以下哪些方法不可以直接來對文本分類?(A)

A、Kmeans?

B、決策樹?

C、支持向量機?

D、KNN

正確答案: A分類不同于聚類。?

@BlackEyes_SGC:A:Kmeans是聚類方法,典型的無監督學習方法。分類是監督學習方法,BCD都是常見的分類方法。

77.已知一組數據的協方差矩陣P,下面關于主分量說法錯誤的是( C )

A、主分量分析的最佳準則是對一組數據進行按一組正交基分解, 在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小?

B、在經主分量分解后,協方差矩陣成為對角矩陣?

C、主分量分析就是K-L變換?

D、主分量是通過求協方差矩陣的特征值得到

正確答案: C?

@BlackEyes_SGC:K-L變換與PCA變換是不同的概念,PCA的變換矩陣是協方差矩陣,K-L變換的變換矩陣可以有很多種(二階矩陣、協方差矩陣、總類內離散度矩陣等等)。當K-L變換矩陣為協方差矩陣時,等同于PCA。

78.Kmeans的復雜度?

時間復雜度:O(tKmn),其中,t為迭代次數,K為簇的數目,m為記錄數,n為維數空間復雜度:O((m+K)n),其中,K為簇的數目,m為記錄數,n為維數。

具體參考:機器學習之深入理解K-means、與KNN算法區別及其代碼實現

79.關于Logit 回歸和SVM 不正確的是(A)

A. Logit回歸本質上是一種根據樣本對權值進行極大似然估計的方法,而后驗概率正比于先驗概率和似然函數的乘積。logit僅僅是最大化似然函數,并沒有最大化后驗概率,更談不上最小化后驗概率。A錯誤?

B. Logit回歸的輸出就是樣本屬于正類別的幾率,可以計算出概率,正確?

C. SVM的目標是找到使得訓練數據盡可能分開且分類間隔最大的超平面,應該屬于結構風險最小化。?

D. SVM可以通過正則化系數控制模型的復雜度,避免過擬合。

@BlackEyes_SGC:Logit回歸目標函數是最小化后驗概率,Logit回歸可以用于預測事件發生概率的大小,SVM目標是結構風險最小化,SVM可以有效避免模型過擬合。

80.輸入圖片大小為200×200,依次經過一層卷積(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一層卷積(kernel size 3×3,padding 1,stride 1)之后,輸出特征圖大小為:()

正確答案:97

@BlackEyes_SGC:計算尺寸不被整除只在GoogLeNet中遇到過。卷積向下取整,池化向上取整。

本題 (200-5+2*1)/2+1 為99.5,取99?

(99-3)/1+1 為97?

(97-3+2*1)/1+1 為97

研究過網絡的話看到stride為1的時候,當kernel為 3 padding為1或者kernel為5 padding為2 一看就是卷積前后尺寸不變。計算GoogLeNet全過程的尺寸也一樣。

81.影響聚類算法結果的主要因素有(BCD )?

A.已知類別的樣本質量;?

B.分類準則;?

C.特征選取;?

D.模式相似性測度

82.模式識別中,馬式距離較之于歐式距離的優點是(CD)?

A. 平移不變性;?

B. 旋轉不變性;?

C. 尺度不變性;?

D. 考慮了模式的分布

83.影響基本K-均值算法的主要因素有(ABD)?

A. 樣本輸入順序;?

B. 模式相似性測度;?

C. 聚類準則;?

D. 初始類中心的選取

84.在統計模式分類問題中,當先驗概率未知時,可以使用(BD)?

A. 最小損失準則;?

B. 最小最大損失準則;?

C. 最小誤判概率準則;?

D. N-P判決

85.如果以特征向量的相關系數作為模式相似性測度,則影響聚類算法結果的主要因素有(BC)?

A. 已知類別樣本質量;?

B. 分類準則;?

C. 特征選取;?

D. 量綱

86.歐式距離具有(AB );馬式距離具有(ABCD )。?

A. 平移不變性;?

B. 旋轉不變性;?

C. 尺度縮放不變性;?

D. 不受量綱影響的特性

87.你有哪些Deep Learning(RNN,CNN)調參的經驗?

答案解析,來自知乎

88.簡單說說RNN的原理。

我們升學到高三準備高考時,此時的知識是由高二及高二之前所學的知識加上高三所學的知識合成得來,即我們的知識是由前序鋪墊,是有記憶的,好比當電影字幕上出現:“我是”時,你會很自然的聯想到:“我是中國人”。

89.什么是RNN?

@一只鳥的天空,本題解析來源:

循環神經網絡(RNN, Recurrent Neural Networks)介紹

90.RNN是怎么從單層網絡一步一步構造的的?

@何之源,本題解析來源:

完全圖解RNN、RNN變體、Seq2Seq、Attention機制

101.深度學習(CNN RNN Attention)解決大規模文本分類問題。

用深度學習(CNN RNN Attention)解決大規模文本分類問題 - 綜述和實踐

102.如何解決RNN梯度爆炸和彌散的問題的?

深度學習與自然語言處理(7)_斯坦福cs224d 語言模型,RNN,LSTM與GRU

103.如何提高深度學習的性能?

機器學習系列(10)_如何提高深度學習(和機器學習)的性能

104.RNN、LSTM、GRU區別?

@我愛大泡泡,本題解析來源:

面試筆試整理3:深度學習機器學習面試問題準備(必會)

105.當機器學習性能遭遇瓶頸時,你會如何優化的?

可以從這4個方面進行嘗試:基于數據、借助算法、用算法調參、借助模型融合。當然能談多細多深入就看你的經驗心得了。

這里有一份參考清單:機器學習系列(20)_機器學習性能改善備忘單

106.做過什么樣的機器學習項目?比如如何從零構建一個推薦系統?

推薦系統的公開課http://www.julyedu.com/video/play/18/148,另,再推薦一個課程:機器學習項目班 [10次純項目講解,100%純實戰](https://www.julyedu.com/course/getDetail/48)。

107.什么樣的資料集不適合用深度學習?

@抽象猴,來源:

知乎解答

108.廣義線性模型是怎被應用在深度學習中?

@許韓,來源:

知乎解答

109.準備機器學習面試應該了解哪些理論知識?

知乎解答

110.標準化與歸一化的區別?

簡單來說,標準化是依照特征矩陣的列處理數據,其通過求z-score的方法,將樣本的特征值轉換到同一量綱下。歸一化是依照特征矩陣的行處理數據,其目的在于樣本向量在點乘運算或其他核函數計算相似性時,擁有統一的標準,也就是說都轉化為“單位向量”。規則為L2的歸一化公式如下:

特征向量的缺失值處理:

1.缺失值較多.直接將該特征舍棄掉,否則可能反倒會帶入較大的noise,對結果造成不良影響。?

2.缺失值較少,其余的特征缺失值都在10%以內,我們可以采取很多的方式來處理:

1) 把NaN直接作為一個特征,假設用0表示;?

2) 用均值填充;?

3) 用隨機森林等算法預測填充

111.隨機森林如何處理缺失值。

方法一(na.roughfix)簡單粗暴,對于訓練集,同一個class下的數據,如果是分類變量缺失,用眾數補上,如果是連續型變量缺失,用中位數補。?

方法二(rfImpute)這個方法計算量大,至于比方法一好壞?不好判斷。先用na.roughfix補上缺失值,然后構建森林并計算proximity matrix,再回頭看缺失值,如果是分類變量,則用沒有陣進行加權平均的方法補缺失值。然后迭代4-6次,這個補缺失值的思想和KNN有些類似1缺失的觀測實例的proximity中的權重進行投票。如果是連續型變量,則用proximity矩2。

112.隨機森林如何評估特征重要性。

衡量變量重要性的方法有兩種,Decrease GINI 和 Decrease Accuracy:?

1) Decrease GINI: 對于回歸問題,直接使用argmax(VarVarLeftVarRight)作為評判標準,即當前節點訓練集的方差Var減去左節點的方差VarLeft和右節點的方差VarRight。?

2) Decrease Accuracy:對于一棵樹Tb(x),我們用OOB樣本可以得到測試誤差1;然后隨機改變OOB樣本的第j列:保持其他列不變,對第j列進行隨機的上下置換,得到誤差2。至此,我們可以用誤差1-誤差2來刻畫變量j的重要性。基本思想就是,如果一個變量j足夠重要,那么改變它會極大的增加測試誤差;反之,如果改變它測試誤差沒有增大,則說明該變量不是那么的重要。

113.優化Kmeans。

使用Kd樹或者Ball Tree?

將所有的觀測實例構建成一顆kd樹,之前每個聚類中心都是需要和每個觀測點做依次距離計算,現在這些聚類中心根據kd樹只需要計算附近的一個局部區域即可。

114.KMeans初始類簇中心點的選取。

K-means++算法選擇初始seeds的基本思想就是:初始的聚類中心之間的相互距離要盡可能的遠。

1.從輸入的數據點集合中隨機選擇一個點作為第一個聚類中心?

2.對于數據集中的每一個點x,計算它與最近聚類中心(指已選擇的聚類中心)的距離D(x)?

3.選擇一個新的數據點作為新的聚類中心,選擇的原則是:D(x)較大的點,被選取作為聚類中心的概率較大?

4.重復2和3直到k個聚類中心被選出來?

5.利用這k個初始的聚類中心來運行標準的k-means算法

115.解釋對偶的概念。

一個優化問題可以從兩個角度進行考察,一個是primal 問題,一個是dual 問題,就是對偶問題,一般情況下對偶問題給出主問題最優值的下界,在強對偶性成立的情況下由對偶問題可以得到主問題的最優下界,對偶問題是凸優化問題,可以進行較好的求解,SVM中就是將Primal問題轉換為dual問題進行求解,從而進一步引入核函數的思想。

116.如何進行特征選擇?

特征選擇是一個重要的數據預處理過程,主要有兩個原因:一是減少特征數量、降維,使模型泛化能力更強,減少過擬合;二是增強對特征和特征值之間的理解。

常見的特征選擇方式:?

1.去除方差較小的特征。?

2.正則化。1正則化能夠生成稀疏的模型。L2正則化的表現更加穩定,由于有用的特征往往對應系數非零。?

3.隨機森林,對于分類問題,通常采用基尼不純度或者信息增益,對于回歸問題,通常采用的是方差或者最小二乘擬合。一般不需要feature engineering、調參等繁瑣的步驟。它的兩個主要問題,1是重要的特征有可能得分很低(關聯特征問題),2是這種方法對特征變量類別多的特征越有利(偏向問題)。?

4.穩定性選擇。是一種基于二次抽樣和選擇算法相結合較新的方法,選擇算法可以是回歸、SVM或其他類似的方法。它的主要思想是在不同的數據子集和特征子集上運行特征選擇算法,不斷的重復,最終匯總特征選擇結果,比如可以統計某個特征被認為是重要特征的頻率(被選為重要特征的次數除以它所在的子集被測試的次數)。理想情況下,重要特征的得分會接近100%。稍微弱一點的特征得分會是非0的數,而最無用的特征得分將會接近于0。

117.數據預處理。

1.缺失值,填充缺失值fillna:?

i. 離散:None,?

ii. 連續:均值。?

iii. 缺失值太多,則直接去除該列?

2.連續值:離散化。有的模型(如決策樹)需要離散值?

3.對定量特征二值化。核心在于設定一個閾值,大于閾值的賦值為1,小于等于閾值的賦值為0。如圖像操作?

4.皮爾遜相關系數,去除高度相關的列

118.簡單說說特征工程。

119.你知道有哪些數據處理和特征工程的處理?

120.請對比下Sigmoid、Tanh、ReLu這三個激活函數?

121.Sigmoid、Tanh、ReLu這三個激活函數有什么缺點或不足,有沒改進的激活函數?

@我愛大泡泡,來源:

面試筆試整理3:深度學習機器學習面試問題準備(必會)

122.怎么理解決策樹、xgboost能處理缺失值?而有的模型(svm)對缺失值比較敏感?

知乎解答

123.為什么引入非線性激勵函數?

@Begin Again,來源:

知乎解答

如果不用激勵函數(其實相當于激勵函數是f(x) = x),在這種情況下你每一層輸出都是上層輸入的線性函數,很容易驗證,無論你神經網絡有多少層,輸出都是輸入的線性組合,與沒有隱藏層效果相當,這種情況就是最原始的感知機(Perceptron)了。

正因為上面的原因,我們決定引入非線性函數作為激勵函數,這樣深層神經網絡就有意義了(不再是輸入的線性組合,可以逼近任意函數)。最早的想法是Sigmoid函數或者Tanh函數,輸出有界,很容易充當下一層輸入(以及一些人的生物解釋)。

124.請問人工神經網絡中為什么ReLu要好過于Tanh和Sigmoid function?

@Begin Again,來源:

知乎解答

125.為什么LSTM模型中既存在Sigmoid又存在Tanh兩種激活函數?

本題解析來源:知乎解答

@beanfrog:二者目的不一樣:sigmoid 用在了各種gate上,產生0~1之間的值,這個一般只有sigmoid最直接了。tanh 用在了狀態和輸出上,是對數據的處理,這個用其他激活函數或許也可以。

@hhhh:另可參見A Critical Review of Recurrent Neural Networks for Sequence Learning的section4.1,說了那兩個tanh都可以替換成別的。

126.衡量分類器的好壞。

@我愛大泡泡,來源:

答案解析

這里首先要知道TP、FN(真的判成假的)、FP(假的判成真)、TN四種(可以畫一個表格)。

幾種常用的指標:

精度precision = TP/(TP+FP) = TP/~P (~p為預測為真的數量)?

召回率 recall = TP/(TP+FN) = TP/ P?

F1值: 2/F1 = 1/recall + 1/precision?

ROC曲線:ROC空間是一個以偽陽性率(FPR,false positive rate)為X軸,真陽性率(TPR, true positive rate)為Y軸的二維坐標系所代表的平面。其中真陽率TPR = TP / P = recall, 偽陽率FPR = FP / N

127.機器學習和統計里面的auc的物理意義是什么?

詳情參見機器學習和統計里面的auc怎么理解?

128.觀察增益gain, alpha和gamma越大,增益越小?

@AntZ:XGBoost尋找分割點的標準是最大化gain. 考慮傳統的枚舉每個特征的所有可能分割點的貪心法效率太低,XGBoost實現了一種近似的算法。大致的思想是根據百分位法列舉幾個可能成為分割點的候選者,然后從候選者中計算Gain按最大值找出最佳的分割點。它的計算公式分為四項, 可以由正則化項參數調整(lamda為葉子權重平方和的系數, gama為葉子數量):

第一項是假設分割的左孩子的權重分數, 第二項為右孩子, 第三項為不分割總體分數, 最后一項為引入一個節點的復雜度損失。

由公式可知, gama越大gain越小, lamda越大, gain可能小也可能大。

原問題是alpha而不是lambda, 這里paper上沒有提到, XGBoost實現上有這個參數. 上面是我從paper上理解的答案,下面是搜索到的:

如何對XGBoost模型進行參數調優

129.什么造成梯度消失問題? 推導一下。?

?

@許韓,來源:

神經網絡的訓練中,通過改變神經元的權重,使網絡的輸出值盡可能逼近標簽以降低誤差值,訓練普遍使用BP算法,核心思想是,計算出輸出與標簽間的損失函數值,然后計算其相對于每個神經元的梯度,進行權值的迭代。

梯度消失會造成權值更新緩慢,模型訓練難度增加。造成梯度消失的一個原因是,許多激活函數將輸出值擠壓在很小的區間內,在激活函數兩端較大范圍的定義域內梯度為0,造成學習停止。

130.什么是梯度消失和梯度爆炸?

@寒小陽,反向傳播中鏈式法則帶來的連乘,如果有數很小趨于0,結果就會特別小(梯度消失);如果數都比較大,可能結果會很大(梯度爆炸)。

@單車

神經網絡訓練中的梯度消失與梯度爆炸

131.如何解決梯度消失和梯度膨脹?

(1)梯度消失:?

根據鏈式法則,如果每一層神經元對上一層的輸出的偏導乘上權重結果都小于1的話,那么即使這個結果是0.99,在經過足夠多層傳播之后,誤差對輸入層的偏導會趨于0,可以采用ReLU激活函數有效的解決梯度消失的情況。?

(2)梯度膨脹?

根據鏈式法則,如果每一層神經元對上一層的輸出的偏導乘上權重結果都大于1的話,在經過足夠多層傳播之后,誤差對輸入層的偏導會趨于無窮大,可以通過激活函數來解決。

132.推導下反向傳播Backpropagation。

@我愛大泡泡,來源:

推導過程

133.SVD和PCA。

PCA的理念是使得數據投影后的方差最大,找到這樣一個投影向量,滿足方差最大的條件即可。而經過了去除均值的操作之后,就可以用SVD分解來求解這樣一個投影向量,選擇特征值最大的方向。

134.數據不平衡問題。

這主要是由于數據分布不平衡造成的。解決方法如下:

1)采樣,對小樣本加噪聲采樣,對大樣本進行下采樣?

2)進行特殊的加權,如在Adaboost中或者SVM中?

3)采用對不平衡數據集不敏感的算法?

4)改變評價標準:用AUC/ROC來進行評價?

5)采用Bagging/Boosting/Ensemble等方法?

6)考慮數據的先驗分布

135.簡述神經網絡的發展。

MP模型+sgn—->單層感知機(只能線性)+sgn— Minsky 低谷 —>多層感知機+BP+Sigmoid— (低谷) —>深度學習+Pretraining+ReLU/Sigmoid

136.深度學習常用方法。

@SmallisBig,來源:

機器學習崗位面試問題匯總 之 深度學習

137.神經網絡模型(Neural Network)因受人類大腦的啟發而得名。神經網絡由許多神經元(Neuron)組成,每個神經元接受一個輸入,對輸入進行處理后給出一個輸出。請問下列關于神經元的描述中,哪一項是正確的?(E)

A.每個神經元只有一個輸入和一個輸出?

B.每個神經元有多個輸入和一個輸出?

C.每個神經元有一個輸入和多個輸出?

D.每個神經元有多個輸入和多個輸出?

E.上述都正確

答案:(E)?

每個神經元可以有一個或多個輸入,和一個或多個輸出

138.下圖是一個神經元的數學表示,

139.在一個神經網絡中,知道每一個神經元的權重和偏差是最重要的一步。如果知道了神經元準確的權重和偏差,便可以近似任何函數,但怎么獲知每個神經的權重和偏移呢?(C)

A. 搜索每個可能的權重和偏差組合,直到得到最佳值?

B. 賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調整權重?

C. 隨機賦值,聽天由命?

D. 以上都不正確的

答案:(C)?

選項C是對梯度下降的描述。

140.梯度下降算法的正確步驟是什么?( D)

1.計算預測值和真實值之間的誤差?

2.重復迭代,直至得到網絡權重的最佳值?

3.把輸入傳入網絡,得到輸出值?

4.用隨機值初始化權重和偏差?

5.對每一個產生誤差的神經元,調整相應的(權重)值以減小誤差

A. 1, 2, 3, 4, 5?

B. 5, 4, 3, 2, 1?

C. 3, 2, 1, 5, 4?

D. 4, 3, 1, 5, 2

答案:(D)

141.已知:?

- 大腦是有很多個叫做神經元的東西構成,神經網絡是對大腦的簡單的數學表達。?

- 每一個神經元都有輸入、處理函數和輸出。?

- 神經元組合起來形成了網絡,可以擬合任何函數。?

- 為了得到最佳的神經網絡,我們用梯度下降方法不斷更新模型?

給定上述關于神經網絡的描述,什么情況下神經網絡模型被稱為深度學習模型?

A. 加入更多層,使神經網絡的深度增加?

B. 有維度更高的數據?

C. 當這是一個圖形識別的問題時?

D. 以上都不正確

答案:(A)?

更多層意味著網絡更深。沒有嚴格的定義多少層的模型才叫深度模型,目前如果有超過2層的隱層,那么也可以及叫做深度模型。

142.卷積神經網絡可以對一個輸入進行多種變換(旋轉、平移、縮放),這個表述正確嗎?

答案:錯誤?

把數據傳入神經網絡之前需要做一系列數據預處理(也就是旋轉、平移、縮放)工作,神經網絡本身不能完成這些變換。

143.下面哪項操作能實現跟神經網絡中Dropout的類似效果?(B)

A. Boosting?

B. Bagging?

C. Stacking?

D. Mapping?

?

答案:B?

Dropout可以認為是一種極端的Bagging,每一個模型都在單獨的數據上訓練,同時,通過和其他模型對應參數的共享,從而實現模型參數的高度正則化。

144.下列哪一項在神經網絡中引入了非線性?(B)

A. 隨機梯度下降?

B. 修正線性單元(ReLU)?

C. 卷積函數?

D .以上都不正確

答案:(B)?

修正線性單元是非線性的激活函數。

145.在訓練神經網絡時,損失函數(loss)在最初的幾個epochs時沒有下降,可能的原因是?(A)

A. 學習率(learning rate)太低?

B. 正則參數太高?

C. 陷入局部最小值?

D. 以上都有可能

答案:(A)

146.下列哪項關于模型能力(model capacity)的描述是正確的?(指神經網絡模型能擬合復雜函數的能力)(A)

A. 隱藏層層數增加,模型能力增加?

B. Dropout的比例增加,模型能力增加?

C. 學習率增加,模型能力增加?

D. 都不正確

答案:(A)

147.如果增加多層感知機(Multilayer Perceptron)的隱藏層層數,分類誤差便會減小。這種陳述正確還是錯誤?

答案:錯誤?

并不總是正確。過擬合可能會導致錯誤增加。

148.構建一個神經網絡,將前一層的輸出和它自身作為輸入。下列哪一種架構有反饋連接?(A)

A. 循環神經網絡?

B. 卷積神經網絡?

C. 限制玻爾茲曼機?

D. 都不是

答案:(A)

149.下列哪一項在神經網絡中引入了非線性?在感知機中(Perceptron)的任務順序是什么?

1.隨機初始化感知機的權重?

2.去到數據集的下一批(batch)?

3.如果預測值和輸出不一致,則調整權重?

4.對一個輸入樣本,計算輸出值

答案:1 - 4 - 3 - 2

150.假設你需要調整參數來最小化代價函數(cost function),可以使用下列哪項技術?(D)

A. 窮舉搜索?

B. 隨機搜索?

C. Bayesian優化?

D. 以上任意一種

答案:(D)

151.在下面哪種情況下,一階梯度下降不一定正確工作(可能會卡住)?(B)

答案:(B)

這是鞍點(Saddle Point)的梯度下降的經典例子。另,本題來源于:題目來源

152.下圖顯示了訓練過的3層卷積神經網絡準確度,與參數數量(特征核的數量)的關系。

從圖中趨勢可見,如果增加神經網絡的寬度,精確度會增加到一個特定閾值后,便開始降低。造成這一現象的可能原因是什么?(C)

A. 即使增加卷積核的數量,只有少部分的核會被用作預測?

B. 當卷積核數量增加時,神經網絡的預測能力(Power)會降低?

C. 當卷積核數量增加時,它們之間的相關性增加(correlate),導致過擬合?

D. 以上都不正確

答案:(C)?

如C選項指出的那樣,可能的原因是核之間的相關性。

153.假設我們有一個如下圖所示的隱藏層。隱藏層在這個網絡中起到了一定的降維作用。假如現在我們用另一種維度下降的方法,比如說主成分分析法(PCA)來替代這個隱藏層。那么,這兩者的輸出效果是一樣的嗎?

答案:不同,因為PCA用于相關特征而隱層用于有預測能力的特征。

154.神經網絡能組成函數(y=1xy=1x)嗎?

答案:可以,因為激活函數可以是互反函數。

155.下列哪個神經網絡結構會發生權重共享?(D)

A. 卷積神經網絡?

B. 循環神經網絡?

C. 全連接神經網絡?

D. 選項A和B?

?

答案:(D)

156.批規范化(Batch Normalization)的好處都有啥?(A)

A. 在將所有的輸入傳遞到下一層之前對其進行歸一化(更改)?

B. 它將權重的歸一化平均值和標準差?

C. 它是一種非常有效的反向傳播(BP)方法?

D. 這些均不是

答案:(A)

157.在一個神經網絡中,下面哪種方法可以用來處理過擬合?(D)?

?

A. Dropout?

B. 分批歸一化(Batch Normalization)?

C. 正則化(regularization)?

D. 都可以

答案:(D)

158.如果我們用了一個過大的學習速率會發生什么?(D)?

?

A. 神經網絡會收斂?

B. 不好說?

C. 都不對?

D. 神經網絡不會收斂

答案:(D)

159.下圖所示的網絡用于訓練識別字符H和T,如下所示:

網絡的輸出是什么?(D)

D.可能是A或B,取決于神經網絡的權重設置

答案:(D)?

不知道神經網絡的權重和偏差是什么,則無法判定它將會給出什么樣的輸出。

160.假設我們已經在ImageNet數據集(物體識別)上訓練好了一個卷積神經網絡。然后給這張卷積神經網絡輸入一張全白的圖片。對于這個輸入的輸出結果為任何種類的物體的可能性都是一樣的,對嗎?(D)

A. 對的?

B. 不知道?

C. 看情況?

D. 不對

答案:(D)各個神經元的反應是不一樣的?

161.當在卷積神經網絡中加入池化層(pooling layer)時,變換的不變性會被保留,是嗎?(C)

A. 不知道?

B. 看情況?

C. 是?

D. 否

答案:(C)使用池化時會導致出現不變性。

162.當數據過大以至于無法在RAM中同時處理時,哪種梯度下降方法更加有效?(A)

A. 隨機梯度下降法(Stochastic Gradient Descent)?

B. 不知道?

C. 整批梯度下降法(Full Batch Gradient Descent)?

D. 都不是

答案:(A)

163.下圖是一個利用sigmoid函數作為激活函數的含四個隱藏層的神經網絡訓練的梯度下降圖。這個神經網絡遇到了梯度消失的問題。下面哪個敘述是正確的?(A)

A. 第一隱藏層對應D,第二隱藏層對應C,第三隱藏層對應B,第四隱藏層對應A?

B. 第一隱藏層對應A,第二隱藏層對應C,第三隱藏層對應B,第四隱藏層對應D?

C. 第一隱藏層對應A,第二隱藏層對應B,第三隱藏層對應C,第四隱藏層對應D?

D. 第一隱藏層對應B,第二隱藏層對應D,第三隱藏層對應C,第四隱藏層對應A

答案:(A)由于反向傳播算法進入起始層,學習能力降低,這就是梯度消失。

164.對于一個分類任務,如果開始時神經網絡的權重不是隨機賦值的,二是都設成0,下面哪個敘述是正確的?(C)

A. 其他選項都不對?

B. 沒啥問題,神經網絡會正常開始訓練?

C. 神經網絡可以訓練,但是所有的神經元最后都會變成識別同樣的東西?

D. 神經網絡不會開始訓練,因為沒有梯度改變

答案:(C)

165.下圖顯示,當開始訓練時,誤差一直很高,這是因為神經網絡在往全局最小值前進之前一直被卡在局部最小值里。為了避免這種情況,我們可以采取下面哪種策略?(A)

A. 改變學習速率,比如一開始的幾個訓練周期不斷更改學習速率?

B. 一開始將學習速率減小10倍,然后用動量項(momentum)?

C. 增加參數數目,這樣神經網絡就不會卡在局部最優處?

D. 其他都不對

答案:(A)?

選項A可以將陷于局部最小值的神經網絡提取出來。

166.對于一個圖像識別問題(在一張照片里找出一只貓),下面哪種神經網絡可以更好地解決這個問題?(D)

A. 循環神經網絡?

B. 感知機?

C. 多層感知機?

D. 卷積神經網絡

卷積神經網絡將更好地適用于圖像相關問題,因為考慮到圖像附近位置變化的固有性質。

答案:(D)

167.假設在訓練中我們突然遇到了一個問題,在幾次循環之后,誤差瞬間降低。你認為數據有問題,于是你畫出了數據并且發現也許是數據的偏度過大造成了這個問題。

你打算怎么做來處理這個問題?(D)

A. 對數據作歸一化?

B. 對數據取對數變化?

C. 都不對?

D. 對數據作主成分分析(PCA)和歸一化

答案:(D)?

首先將相關的數據去掉,然后將其置零。

168.下面那個決策邊界是神經網絡生成的?(E)

A. A?

B. D?

C. C?

D. B?

E. 以上都有

答案:(E)

169.在下圖中,我們可以觀察到誤差出現了許多小的”漲落”。 這種情況我們應該擔心嗎?(B)

A. 需要,這也許意味著神經網絡的學習速率存在問題?

B. 不需要,只要在訓練集和交叉驗證集上有累積的下降就可以了?

C. 不知道?

D. 不好說

答案:(B)?

選項B是正確的,為了減少這些“起伏”,可以嘗試增加批尺寸(batch size)。

170.在選擇神經網絡的深度時,下面那些參數需要考慮?(C)

1 神經網絡的類型(如MLP,CNN)?

2 輸入數據?

3 計算能力(硬件和軟件能力決定)?

4 學習速率?

5 映射的輸出函數

A. 1,2,4,5?

B. 2,3,4,5?

C. 都需要考慮?

D. 1,3,4,5

答案:(C)?

所有上述因素對于選擇神經網絡模型的深度都是重要的。

171.考慮某個具體問題時,你可能只有少量數據來解決這個問題。不過幸運的是你有一個類似問題已經預先訓練好的神經網絡。可以用下面哪種方法來利用這個預先訓練好的網絡?(C)

A. 把除了最后一層外所有的層都凍住,重新訓練最后一層?

B. 對新數據重新訓練整個模型?

C. 只對最后幾層進行調參(fine tune)?

D. 對每一層模型進行評估,選擇其中的少數來用

答案:(C)

172.增加卷積核的大小對于改進卷積神經網絡的效果是必要的嗎?

答案:不是,增加核函數的大小不一定會提高性能。這個問題在很大程度上取決于數據集。

173.請簡述神經網絡的發展史。

@SIY.Z。本題解析來源:

淺析 Hinton 最近提出的 Capsule 計劃

174.說說spark的性能調優。

https://tech.meituan.com/spark-tuning-basic.html?

https://tech.meituan.com/spark-tuning-pro.html

175.機器學習中,有哪些特征選擇的工程方法?

數據和特征決定了機器學習的上限,而模型和算法只是逼近這個上限而已

1.計算每一個特征與響應變量的相關性:工程上常用的手段有計算皮爾遜系數和互信息系數,皮爾遜系數只能衡量線性相關性而互信息系數能夠很好地度量各種相關性,但是計算相對復雜一些,好在很多toolkit里邊都包含了這個工具(如sklearn的MINE),得到相關性之后就可以排序選擇特征了;?

2.構建單個特征的模型,通過模型的準確性為特征排序,借此來選擇特征;?

3.通過L1正則項來選擇特征:L1正則方法具有稀疏解的特性,因此天然具備特征選擇的特性,但是要注意,L1沒有選到的特征不代表不重要,原因是兩個具有高相關性的特征可能只保留了一個,如果要確定哪個特征重要應再通過L2正則方法交叉檢驗*;?

4.訓練能夠對特征打分的預選模型:RandomForest和Logistic Regression等都能對模型的特征打分,通過打分獲得相關性后再訓練最終模型;?

5.通過特征組合后再來選擇特征:如對用戶id和用戶特征最組合來獲得較大的特征集再來選擇特征,這種做法在推薦系統和廣告系統中比較常見,這也是所謂億級甚至十億級特征的主要來源,原因是用戶數據比較稀疏,組合特征能夠同時兼顧全局模型和個性化模型,這個問題有機會可以展開講。?

6.通過深度學習來進行特征選擇:目前這種手段正在隨著深度學習的流行而成為一種手段,尤其是在計算機視覺領域,原因是深度學習具有自動學習特征的能力,這也是深度學習又叫unsupervised feature learning的原因。從深度學習模型中選擇某一神經層的特征后就可以用來進行最終目標模型的訓練了。

176.常見的分類算法有哪些?

SVM、神經網絡、隨機森林、邏輯回歸、KNN、貝葉斯

177.常見的監督學習算法有哪些?

感知機、SVM、人工神經網絡、決策樹、邏輯回歸

178.在其他條件不變的前提下,以下哪種做法容易引起機器學習中的過擬合問題(D)

A. 增加訓練集量?

B. 減少神經網絡隱藏層節點數?

C. 刪除稀疏的特征?

D. SVM算法中使用高斯核/RBF核代替線性核

正確答案:(D)

@劉炫320

一般情況下,越復雜的系統,過擬合的可能性就越高,一般模型相對簡單的話泛化能力會更好一點。

B.一般認為,增加隱層數可以降低網絡誤差(也有文獻認為不一定能有效降低),提高精度,但也使網絡復雜化,從而增加了網絡的訓練時間和出現“過擬合”的傾向, svm高斯核函數比線性核函數模型更復雜,容易過擬合

D.徑向基(RBF)核函數/高斯核函數的說明,這個核函數可以將原始空間映射到無窮維空間。對于參數 ,如果選的很大,高次特征上的權重實際上衰減得非常快,實際上(數值上近似一下)相當于一個低維的子空間;反過來,如果選得很小,則可以將任意的數據映射為線性可分——當然,這并不一定是好事,因為隨之而來的可能是非常嚴重的過擬合問題。不過,總的來說,通過調整參數 ,高斯核實際上具有相當高的靈活性,也是 使用最廣泛的核函數之一。

179.下列時間序列模型中,哪一個模型可以較好地擬合波動性的分析和預測?(D)

A. AR模型?

B. MA模型?

C. ARMA模型?

D. GARCH模型

正確答案:(D)

@劉炫320

R模型是一種線性預測,即已知N個數據,可由模型推出第N點前面或后面的數據(設推出P點),所以其本質類似于插值。

MA模型(moving average model)滑動平均模型,其中使用趨勢移動平均法建立直線趨勢的預測模型。

ARMA模型(auto regressive moving average model)自回歸滑動平均模型,模型參量法高分辨率譜分析方法之一。這種方法是研究平穩隨機過程有理譜的典型方法。它比AR模型法與MA模型法有較精確的譜估計及較優良的譜分辨率性能,但其參數估算比較繁瑣。

GARCH模型稱為廣義ARCH模型,是ARCH模型的拓展,由Bollerslev(1986)發展起來的。它是ARCH模型的推廣。GARCH(p,0)模型,相當于ARCH(p)模型。GARCH模型是一個專門針對金融數據所量體訂做的回歸模型,除去和普通回歸模型相同的之處,GARCH對誤差的方差進行了進一步的建模。特別適用于波動性的分析和預測,這樣的分析對投資者的決策能起到非常重要的指導性作用,其意義很多時候超過了對數值本身的分析和預測。

180.以下哪個屬于線性分類器最佳準則?(ACD)

A. 感知準則函數?

B.貝葉斯分類?

C.支持向量機?

D.Fisher準則

正確答案:(ACD)

@劉炫320

線性分類器有三大類:感知器準則函數、SVM、Fisher準則,而貝葉斯分類器不是線性分類器。

感知準則函數 :準則函數以使錯分類樣本到分界面距離之和最小為原則。其優點是通過錯分類樣本提供的信息對分類器函數進行修正,這種準則是人工神經元網絡多層感知器的基礎。

支持向量機 :基本思想是在兩類線性可分條件下,所設計的分類器界面使兩類之間的間隔為最大,它的基本出發點是使期望泛化風險盡可能小。(使用核函數可解決非線性問題)

Fisher 準則 :更廣泛的稱呼是線性判別分析(LDA),將所有樣本投影到一條遠點出發的直線,使得同類樣本距離盡可能小,不同類樣本距離盡可能大,具體為最大化“廣義瑞利商”。

根據兩類樣本一般類內密集,類間分離的特點,尋找線性分類器最佳的法線向量方向,使兩類樣本在該方向上的投影滿足類內盡可能密集,類間盡可能分開。這種度量通過類內離散矩陣SwSw和類間離散矩陣SbSb實現。

181.基于二次準則函數的H-K算法較之于感知器算法的優點是(BD)?

A. 計算量小?

B. 可以判別問題是否線性可分?

C. 其解完全適用于非線性可分的情況?

D. 其解的適應性更好

正確答案:(BD)

@劉炫320

HK算法思想很樸實,就是在最小均方誤差準則下求得權矢量。?

他相對于感知器算法的優點在于,他適用于線性可分和非線性可分得情況,對于線性可分的情況,給出最優權矢量,對于非線性可分得情況,能夠判別出來,以退出迭代過程。

182.以下說法中正確的是(BD)?

A. SVM對噪聲(如來自其他分布的噪聲樣本)魯棒?

B. 在AdaBoost算法中,所有被分錯的樣本的權重更新比例相同?

C. Boosting和Bagging都是組合多個分類器投票的方法,二者都是根據單個分類器的正確率決定其權重?

D. 給定n個數據點,如果其中一半用于訓練,一般用于測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減少

正確答案:(BD)

@劉炫320

A、SVM對噪聲(如來自其他分布的噪聲樣本)魯棒?

SVM本身對噪聲具有一定的魯棒性,但實驗證明,是當噪聲率低于一定水平的噪聲對SVM沒有太大影響,但隨著噪聲率的不斷增加,分類器的識別率會降低。?

B、在AdaBoost算法中所有被分錯的樣本的權重更新比例相同?

AdaBoost算法中不同的訓練集是通過調整每個樣本對應的權重來實現的。開始時,每個樣本對應的權重是相同的,即其中n為樣本個數,在此樣本分布下訓練出一弱分類器。對于分類錯誤的樣本,加大其對應的權重;而對于分類正確的樣本,降低其權重,這樣分錯的樣本就被凸顯出來,從而得到一個新的樣本分布。在新的樣本分布下,再次對樣本進行訓練,得到弱分類器。以此類推,將所有的弱分類器重疊加起來,得到強分類器。?

C、Boost和Bagging都是組合多個分類器投票的方法,二者均是根據單個分類器的正確率決定其權重。?

Bagging與Boosting的區別:?

取樣方式不同。?

Bagging采用均勻取樣,而Boosting根據錯誤率取樣。?

Bagging的各個預測函數沒有權重,而Boosting是有權重的。?

Bagging的各個預測函數可以并行生成,而Boosing的各個預測函數只能順序生成。

183.輸入圖片大小為200×200,依次經過一層卷積(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一層卷積(kernel size 3×3,padding 1,stride 1)之后,輸出特征圖大小為(C):

A. 95?

B. 96?

C. 97?

D. 98

正確答案:(C)

@劉炫320

首先我們應該知道卷積或者池化后大小的計算公式:?

out_height=((input_height - filter_height + padding_top+padding_bottom)/stride_height )+1?

out_width=((input_width - filter_width + padding_left+padding_right)/stride_width )+1

其中,padding指的是向外擴展的邊緣大小,而stride則是步長,即每次移動的長度。

這樣一來就容易多了,首先長寬一般大,所以我們只需要計算一個維度即可,這樣,經過第一次卷積后的大小為: (200-5+2)/2+1,取99;經過第一次池化后的大小為:(99-3)/1+1 為97;經過第二次卷積后的大小為: (97-3+2)/1+1 為97。

184.在SPSS的基礎分析模塊中,作用是“以行列表的形式揭示數據之間的關系”的是(C)

A. 數據描述?

B. 相關?

C. 交叉表?

D. 多重相應

正確答案:(C )

185.一監獄人臉識別準入系統用來識別待進入人員的身份,此系統一共包括識別4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學習方法最適合此種應用需求:(B)。

A. 二分類問題?

B. 多分類問題?

C. 層次聚類問題?

D. k-中心點聚類問題?

E. 回歸問題?

F. 結構分析問題?

?

正確答案:(B)

@劉炫320

二分類:每個分類器只能把樣本分為兩類。監獄里的樣本分別為獄警、小偷、送餐員、其他。二分類肯 定行不通。瓦普尼克95年提出來基礎的支持向量機就是個二分類的分類器,這個分類器學習過 程就是解一個基于正負二分類推導而來的一個最優規劃問題(對偶問題),要解決多分類問題 就要用決策樹把二分類的分類器級聯,VC維的概念就是說的這事的復雜度。?

層次聚類: 創建一個層次等級以分解給定的數據集。監獄里的對象分別是獄警、小偷、送餐員、或者其 他,他們等級應該是平等的,所以不行。此方法分為自上而下(分解)和自下而上(合并)兩種操作方式。?

K-中心點聚類:挑選實際對象來代表簇,每個簇使用一個代表對象。它是圍繞中心點劃分的一種規則,所以這里并不合適。?

回歸分析:處理變量之間具有相關性的一種統計方法,這里的獄警、小偷、送餐員、其他之間并沒有什 么直接關系。?

結構分析: 結構分析法是在統計分組的基礎上,計算各組成部分所占比重,進而分析某一總體現象的內部結構特征、總體的性質、總體內部結構依時間推移而表現出的變化規律性的統計方法。結構分析法的基本表現形式,就是計算結構指標。這里也行不通。?

多分類問題: 針對不同的屬性訓練幾個不同的弱分類器,然后將它們集成為一個強分類器。這里獄警、 小偷、送餐員 以及他某某,分別根據他們的特點設定依據,然后進行區分識別。

186.關于 Logit 回歸和 SVM 不正確的是(A)。

A. Logit回歸目標函數是最小化后驗概率?

B. Logit回歸可以用于預測事件發生概率的大小?

C. SVM目標是結構風險最小化?

D. SVM可以有效避免模型過擬合

正確答案:(A)

@劉炫320

A. Logit回歸本質上是一種根據樣本對權值進行極大似然估計的方法,而后驗概率正比于先驗概率和似然函數的乘積。logit僅僅是最大化似然函數,并沒有最大化后驗概率,更談不上最小化后驗概率。而最小化后驗概率是樸素貝葉斯算法要做的。A錯誤?

B. Logit回歸的輸出就是樣本屬于正類別的幾率,可以計算出概率,正確?

C. SVM的目標是找到使得訓練數據盡可能分開且分類間隔最大的超平面,應該屬于結構風險最小化。?

D. SVM可以通過正則化系數控制模型的復雜度,避免過擬合。

187.有兩個樣本點,第一個點為正樣本,它的特征向量是(0,-1);第二個點為負樣本,它的特征向量是(2,3),從這兩個樣本點組成的訓練集構建一個線性SVM分類器的分類面方程是(C)

A. 2x+y=4?

B. x+2y=5?

C. x+2y=3?

D. 2x-y=0

正確答案:(C)

解析:這道題簡化了,對于兩個點來說,最大間隔就是垂直平分線,因此求出垂直平分線即可。

188.下面有關分類算法的準確率,召回率,F1 值的描述,錯誤的是?(C)

A. 準確率是檢索出相關文檔數與檢索出的文檔總數的比率,衡量的是檢索系統的查準率?

B. 召回率是指檢索出的相關文檔數和文檔庫中所有的相關文檔數的比率,衡量的是檢索系統的查全率?

C. 正確率、召回率和 F 值取值都在0和1之間,數值越接近0,查準率或查全率就越高?

D. 為了解決準確率和召回率沖突問題,引入了F1分數

正確答案:(C)

解析:對于二類分類問題常用的評價指標是精準度(precision)與召回率(recall)。通常以關注的類為正類,其他類為負類,分類器在測試數據集上的預測或正確或不正確,4種情況出現的總數分別記作:?

TP——將正類預測為正類數?

FN——將正類預測為負類數?

FP——將負類預測為正類數?

TN——將負類預測為負類數?

由此:?

精準率定義為:P = TP / (TP + FP)?

召回率定義為:R = TP / (TP + FN)?

F1值定義為: F1 = 2 P R / (P + R)?

精準率和召回率和F1取值都在0和1之間,精準率和召回率高,F1值也會高,不存在數值越接近0越高的說法,應該是數值越接近1越高。

189.以下幾種模型方法屬于判別式模型(Discriminative Model)的有(A)?

1)混合高斯模型 2)條件隨機場模型?

3)區分度訓練 4)隱馬爾科夫模型?

?

A. 2,3?

B. 3,4?

C. 1,4?

D. 1,2

正確答案:(A)

@劉炫320

常見的判別式模型有:Logistic Regression(Logistical 回歸)

Linear discriminant analysis(線性判別分析)?

Supportvector machines(支持向量機)?

Boosting(集成學習)?

Conditional random fields(條件隨機場)?

Linear regression(線性回歸)?

Neural networks(神經網絡)?

?

常見的生成式模型有:Gaussian mixture model and othertypes of mixture model(高斯混合及其他類型混合模型)?

Hidden Markov model(隱馬爾可夫)?

NaiveBayes(樸素貝葉斯)?

AODE(平均單依賴估計)?

Latent Dirichlet allocation(LDA主題模型)?

Restricted Boltzmann Machine(限制波茲曼機)

生成式模型是根據概率乘出結果,而判別式模型是給出輸入,計算出結果。

190.SPSS中,數據整理的功能主要集中在(AD )等菜單中。

A. 數據?

B. 直銷?

C. 分析?

D. 轉換?

?

正確答案:(AD )

@劉炫320

解析:對數據的整理主要在數據和轉換功能菜單中。

191.深度學習是當前很熱門的機器學習算法,在深度學習中,涉及到大量的矩陣相乘,現在需要計算三個稠密矩陣A,B,C的乘積ABC,假設三個矩陣的尺寸分別為m?n,n?p,p?q,且m

A. (AB)C?

B. AC(B)?

C. A(BC)?

D. 所以效率都相同

正確答案:(A)

@劉炫320

首先,根據簡單的矩陣知識,因為 A*B , A 的列數必須和 B 的行數相等。因此,可以排除 B 選項。

然后,再看 A 、 C 選項。在 A 選項中,m?n 的矩陣 A 和n?p的矩陣 B 的乘積,得到 m?p的矩陣 A*B ,而 A?B的每個元素需要 n 次乘法和 n-1 次加法,忽略加法,共需要 m?n?p次乘法運算。同樣情況分析 A*B 之后再乘以 C 時的情況,共需要 m?p?q次乘法運算。因此, A 選項 (AB)C 需要的乘法次數是 m?n?p+m?p?q 。同理分析, C 選項 A (BC) 需要的乘法次數是 n?p?q+m?n?q。

由于m?n?p

192.Nave Bayes是一種特殊的Bayes分類器,特征變量是X,類別標簽是C,它的一個假定是:( C )

A. 各類別的先驗概率P(C)是相等的?

B. 以0為均值,sqr(2)/2為標準差的正態分布?

C. 特征變量X的各個維度是類別條件獨立隨機變量?

D. P(X|C)是高斯分布

正確答案:( C )

@劉炫320

樸素貝葉斯的條件就是每個變量相互獨立。

193.關于支持向量機SVM,下列說法錯誤的是(C)

A. L2正則項,作用是最大化分類間隔,使得分類器擁有更強的泛化能力?

B. Hinge 損失函數,作用是最小化經驗分類錯誤?

C. 分類間隔為1||w||1||w||,||w||代表向量的模?

D. 當參數C越小時,分類間隔越大,分類錯誤越多,趨于欠學習

正確答案:(C)

@劉炫320

A正確。考慮加入正則化項的原因:想象一個完美的數據集,y>1是正類,y<-1是負類,決策面y=0,加入一個y=-30的正類噪聲樣本,那么決策面將會變“歪”很多,分類間隔變小,泛化能力減小。加入正則項之后,對噪聲樣本的容錯能力增強,前面提到的例子里面,決策面就會沒那么“歪”了,使得分類間隔變大,提高了泛化能力。

B正確。

C錯誤。間隔應該是2||w||2||w||才對,后半句應該沒錯,向量的模通常指的就是其二范數。

D正確。考慮軟間隔的時候,C對優化問題的影響就在于把a的范圍從[0,+inf]限制到了[0,C]。C越小,那么a就會越小,目標函數拉格朗日函數導數為0可以求出w=∑iai?yi?xiw=∑iai?yi?xi,a變小使得w變小,因此間隔2||w||2||w||變大。

194.在HMM中,如果已知觀察序列和產生觀察序列的狀態序列,那么可用以下哪種方法直接進行參數估計( D )

A. EM算法?

B. 維特比算法?

C. 前向后向算法?

D. 極大似然估計

正確答案:( D )

@劉炫320

EM算法: 只有觀測序列,無狀態序列時來學習模型參數,即Baum-Welch算法

維特比算法: 用動態規劃解決HMM的預測問題,不是參數估計

前向后向算法:用來算概率

極大似然估計:即觀測序列和相應的狀態序列都存在時的監督學習算法,用來估計參數

注意的是在給定觀測序列和對應的狀態序列估計模型參數,可以利用極大似然發估計。如果給定觀測序列,沒有對應的狀態序列,才用EM,將狀態序列看不不可測的隱數據。

195.假定某同學使用Naive Bayesian(NB)分類模型時,不小心將訓練數據的兩個維度搞重復了,那么關于NB的說法中正確的是: (BD)

A. 這個被重復的特征在模型中的決定作用會被加強?

B. 模型效果相比無重復特征的情況下精確度會降低?

C. 如果所有特征都被重復一遍,得到的模型預測結果相對于不重復的情況下的模型預測結果一樣。?

D. 當兩列特征高度相關時,無法用兩列特征相同時所得到的結論來分析問題?

E. NB可以用來做最小二乘回歸?

F. 以上說法都不正確?

?

正確答案:(BD)

196.L1與L2范數在Logistic Regression 中,如果同時加入L1和L2范數,會產生什么效果( A )。

A. 可以做特征選擇,并在一定程度上防止過擬合?

B. 能解決維度災難問題?

C. 能加快計算速度?

D. 可以獲得更準確的結果

正確答案:( A )

@劉炫320

L1范數具有系數解的特性,但是要注意的是,L1沒有選到的特征不代表不重要,原因是兩個高相關性的特征可能只保留一個。如果需要確定哪個特征重要,再通過交叉驗證。

在代價函數后面加上正則項,L1即是Losso回歸,L2是嶺回歸。L1范數是指向量中各個元素絕對值之和,用于特征選擇。L2范數 是指向量各元素的平方和然后求平方根,用于 防止過擬合,提升模型的泛化能力。因此選擇A。

對于機器學習中的范數規則化,也就是L0,L1,L2范數的詳細解答,請參閱范數規則化。

197.機器學習中L1正則化和L2正則化的區別是?(AD)

A. 使用L1可以得到稀疏的權值?

B. 使用L1可以得到平滑的權值?

C. 使用L2可以得到稀疏的權值?

D. 使用L2可以得到平滑的權值

正確答案:(AD)

@劉炫320

L1正則化偏向于稀疏,它會自動進行特征選擇,去掉一些沒用的特征,也就是將這些特征對應的權重置為0。?

L2主要功能是為了防止過擬合,當要求參數越小時,說明模型越簡單,而模型越簡單則,越趨向于平滑,從而防止過擬合。

L1正則化/Lasso?

L1正則化將系數w的L1范數作為懲罰項加到損失函數上,由于正則項非零,這就迫使那些弱的特征所對應的系數變成0。因此L1正則化往往會使學到的模型很稀疏(系數w經常為0),這個特性使得L1正則化成為一種很好的特征選擇方法。

L2正則化/Ridge regression?

L2正則化將系數向量的L2范數添加到了損失函數中。由于L2懲罰項中系數是二次方的,這使得L2和L1有著諸多差異,最明顯的一點就是,L2正則化會讓系數的取值變得平均。對于關聯特征,這意味著他們能夠獲得更相近的對應系數。還是以Y=X1+X2Y=X1+X2為例,假設X1X1和X1X1具有很強的關聯,如果用L1正則化,不論學到的模型是Y=X1+X2Y=X1+X2還是Y=2X1Y=2X1,懲罰都是一樣的,都是2α2α。但是對于L2來說,第一個模型的懲罰項是2α2α,但第二個模型的是4α4α。可以看出,系數之和為常數時,各系數相等時懲罰是最小的,所以才有了L2會讓各個系數趨于相同的特點。

可以看出,L2正則化對于特征選擇來說一種穩定的模型,不像L1正則化那樣,系數會因為細微的數據變化而波動。所以L2正則化和L1正則化提供的價值是不同的,L2正則化對于特征理解來說更加有用:表示能力強的特征對應的系數是非零。

因此,一句話總結就是:L1會趨向于產生少量的特征,而其他的特征都是0,而L2會選擇更多的特征,這些特征都會接近于0。Lasso在特征選擇時候非常有用,而Ridge就只是一種規則化而已。

198.位勢函數法的積累勢函數K(x)的作用相當于Bayes判決中的( AD )

A. 后驗概率?

B. 先驗概率?

C. 類概率密度?

D. 類概率密度與先驗概率的乘積

正確答案: (AD)

事實上,AD說的是一回事。

參考鏈接:勢函數主要用于確定分類面,其思想來源于物理。

199.隱馬爾可夫模型三個基本問題以及相應的算法說法正確的是( ABC)

A. 評估—前向后向算法?

B. 解碼—維特比算法?

C. 學習—Baum-Welch算法?

D. 學習—前向后向算法

正確答案: ( ABC)

解析:評估問題,可以使用前向算法、后向算法、前向后向算法。

200.特征比數據量還大時,選擇什么樣的分類器?

答案:線性分類器,因為維度高的時候,數據一般在維度空間里面會比較稀疏,很有可能線性可分。

201.下列屬于無監督學習的是: (A)

A. k-means?

B. SVM?

C. 最大熵?

D. CRF

正確答案:(A)

解析: A是聚類,BC是分類,D是序列化標注,也是有監督學習。

202.下列哪個不屬于CRF模型對于HMM和MEMM模型的優勢(B)?

A. 特征靈活?

B. 速度快?

C. 可容納較多上下文信息?

D. 全局最優

正確答案:(B)

解析: CRF 的優點:特征靈活,可以容納較多的上下文信息,能夠做到全局最優CRF 的缺點:速度慢

CRF沒有HMM那樣嚴格的獨立性假設條件,因而可以容納任意的上下文信息。特征設計靈活(與ME一樣) ————與HMM比較?

同時,由于CRF計算全局最優輸出節點的條件概率,它還克服了最大熵馬爾可夫模型標記偏置(Label-bias)的缺點。 --————與MEMM比較?

CRF是在給定需要標記的觀察序列的條件下,使用維特比算法,計算整個標記序列的聯合概率分布,而不是在給定當前狀態條件下,定義下一個狀態的狀態分布。————與ME比較

203.數據清理中,處理缺失值的方法是? (ABCD)

A. 估算?

B. 整例刪除?

C. 變量刪除?

D. 成對刪除

正確答案:(ABCD)?

由于調查、編碼和錄入誤差,數據中可能存在一些無效值和缺失值,需要給予適當的處理。常用的處理方法有:估算,整例刪除,變量刪除和成對刪除。?

估算(estimation)。最簡單的辦法就是用某個變量的樣本均值、中位數或眾數代替無效值和缺失值。這種辦法簡單,但沒有充分考慮數據中已有的信息,誤差可能較大。另一種辦法就是根據調查對象對其他問題的答案,通過變量之間的相關分析或邏輯推論進行估計。例如,某一產品的擁有情況可能與家庭收入有關,可以根據調查對象的家庭收入推算擁有這一產品的可能性。?

整例刪除(casewise deletion)是剔除含有缺失值的樣本。由于很多問卷都可能存在缺失值,這種做法的結果可能導致有效樣本量大大減少,無法充分利用已經收集到的數據。因此,只適合關鍵變量缺失,或者含有無效值或缺失值的樣本比重很小的情況。?

變量刪除(variable deletion)。如果某一變量的無效值和缺失值很多,而且該變量對于所研究的問題不是特別重要,則可以考慮將該變量刪除。這種做法減少了供分析用的變量數目,但沒有改變樣本量。?

成對刪除(pairwise deletion)是用一個特殊碼(通常是9、99、999等)代表無效值和缺失值,同時保留數據集中的全部變量和樣本。但是,在具體計算時只采用有完整答案的樣本,因而不同的分析因涉及的變量不同,其有效樣本量也會有所不同。這是一種保守的處理方法,最大限度地保留了數據集中的可用信息。?

采用不同的處理方法可能對分析結果產生影響,尤其是當缺失值的出現并非隨機且變量之間明顯相關時。因此,在調查中應當盡量避免出現無效值和缺失值,保證數據的完整性。

204.關于線性回歸的描述,以下正確的有: (ACEF)

A. 基本假設包括隨機干擾項是均值為0,方差為1的標準正態分布?

B. 基本假設包括隨機干擾下是均值為0的同方差正態分布?

C. 在違背基本假設時,普通最小二乘法估計量不再是最佳線性無偏估計量?

D. 在違背基本假設時,模型不再可以估計?

E. 可以用DW檢驗殘差是否存在序列相關性?

F. 多重共線性會使得參數估計值方差減小

正確答案:(ACEF)

1、AB一元線性回歸的基本假設有:?

(1)隨機誤差項是一個期望值或平均值為0的隨機變量;?

(2)對于解釋變量的所有觀測值,隨機誤差項有相同的方差;?

(3)隨機誤差項彼此不相關;?

(4)解釋變量是確定性變量,不是隨機變量,與隨機誤差項彼此之間相互獨立;?

(5)解釋變量之間不存在精確的(完全的)線性關系,即解釋變量的樣本觀測值矩陣是滿秩矩陣;?

(6)隨機誤差項服從正態分布?

2、CD 違背基本假設的計量經濟學模型還是可以估計的,只是不能使用普通最小二乘法進行估計。?

當存在異方差時,普通最小二乘法估計存在以下問題: 參數估計值雖然是無偏的,但不是最小方差線性無偏估計。?

3、E杜賓-瓦特森(DW)檢驗,計量經濟,統計分析中常用的一種檢驗序列一階自相關最常用的方法。?

4、F所謂多重共線性(Multicollinearity)是指線性回歸模型中的解釋變量之間由于存在精確相關關系或高度相關關系而使模型估計失真或難以估計準確。影響?

(1)完全共線性下參數估計量不存在?

(2)近似共線性下OLS估計量非有效?

多重共線性使參數估計值的方差增大,1/(1-r2)為方差膨脹因子(Variance Inflation Factor, VIF)?

(3)參數估計量經濟含義不合理?

(4)變量的顯著性檢驗失去意義,可能將重要的解釋變量排除在模型之外?

(5)模型的預測功能失效。變大的方差容易使區間預測的“區間”變大,使預測失去意義。?

對于線性回歸模型,當響應變量服從正態分布,誤差項滿足高斯–馬爾科夫條件(零均值、等方差、不相關)時,回歸參數的最小二乘估計是一致最小方差無偏估計。?

當然,該條件只是理想化的假定,為的是數學上有相應的較為成熟的結論。其實大多數實際問題都不完全滿足這些理想化的假定。?

線性回歸模型理論的發展正是在不斷克服理想化條件不被滿足時得到許多新方法。如加權LSE、嶺估計、壓縮估計、BOX_COX變換等一系列段。做實際工作時一定是要超越書本上的理想化條件的。

205.影響聚類算法效果的主要原因有:(ABC)?

A. 特征選取?

B. 模式相似性測度?

C. 分類準則?

D. 已知類別的樣本質量

正確答案:(ABC)

@劉炫320

解析:這道題應該是很簡單的,D之所以不正確,是因為聚類是對無類別的數據進行聚類,不使用已經標記好的數據。

?206.以下哪個是常見的時間序列算法模型(C)

A. RSI?

B. MACD?

C. ARMA?

D. KDJ

正確答案:(C)

解析: 自回歸滑動平均模型(ARMA) ,其建模思想可概括為:逐漸增加模型的階數,擬合較高階模型,直到再增加模型的階數而剩余殘差方差不再顯著減小為止。

其他三項都不是一個層次的。?

A. 相對強弱指數 (RSI, Relative Strength Index) 是通過比較一段時期內的平均收盤漲數和平均收盤跌數來分析市場買沽盤的意向和實力 , 從而作出未來市場的走勢 。?

B. 移動平均聚散指標 (MACD, Moving Average Convergence Divergence), 是根據均線的構造原理 , 對股票價格的收盤價進行平滑處理 , 求出算術平均值以后再進行計算 , 是一種趨向類指標 。?

D. 隨機指標 (KDJ) 一般是根據統計學的原理 , 通過一個特定的周期 ( 常為 9 日 ,9 周等 ) 內出現過的最高價 , 最低價及最后一個計算周期的收盤價及這三者之間的比例關系 , 來計算最后一個計算周期的未成熟隨機值 RSV, 然后根據平滑移動平均線的方法來計算 K 值 , D 值與 J 值 , 并繪成曲線圖來研判股票走勢 。

207.下列不是SVM核函數的是:(B)

A. 多項式核函數?

B. Logistic核函數?

C. 徑向基核函數?

D. Sigmoid核函數

正確答案:(B)

?

SVM核函數包括線性核函數、多項式核函數、徑向基核函數、高斯核函數、冪指數核函數、拉普拉斯核函數、ANOVA核函數、二次有理核函數、多元二次核函數、逆多元二次核函數以及Sigmoid核函數。

核函數的定義并不困難,根據泛函的有關理論,只要一種函數 K ( x i , x j ) 滿足Mercer條件,它就對應某一變換空間的內積。對于判斷哪些函數是核函數到目前為止也取得了重要的突破,得到Mercer定理和以下常用的核函數類型:?

(1)線性核函數 :K ( x , x i ) = x ? x i?

(2)多項式核 :K ( x , x i ) = ( ( x ? x i ) + 1 ) d?

(3)徑向基核(RBF):K ( x , x i ) = exp ( ? ∥ x ? x i ∥ 2 σ 2 )?

Gauss徑向基函數則是局部性強的核函數,其外推能力隨著參數 σ 的增大而減弱。多項式形式的核函數具有良好的全局性質。局部性較差。?

(4)傅里葉核 :K ( x , x i ) = 1 ? q 2 2 ( 1 ? 2 q cos ( x ? x i ) + q 2 )?

(5)樣條核 :K ( x , x i ) = B 2 n + 1 ( x ? x i )?

(6)Sigmoid核函數 :K ( x , x i ) = tanh ( κ ( x , x i ) ? δ )

采用Sigmoid函數作為核函數時,支持向量機實現的就是一種多層感知器神經網絡,應用SVM方法,隱含層節點數目(它確定神經網絡的結構)、隱含層節點對輸入節點的權值都是在設計(訓練)的過程中自動確定的。而且支持向量機的理論基礎決定了它最終求得的是全局最優值而不是局部最小值,也保證了它對于未知樣本的良好泛化能力而不會出現過學習現象。

在選取核函數解決實際問題時,通常采用的方法有:?

一是利用專家的先驗知識預先選定核函數;?

二是采用Cross-Validation方法,即在進行核函數選取時,分別試用不同的核函數,歸納誤差最小的核函數就是最好的核函數.如針對傅立葉核、RBF核,結合信號處理問題中的函數回歸問題,通過仿真實驗,對比分析了在相同數據條件下,采用傅立葉核的SVM要比采用RBF核的SVM誤差小很多。?

三是采用由Smits等人提出的混合核函數方法,該方法較之前兩者是目前選取核函數的主流方法,也是關于如何構造核函數的又一開創性的工作.將不同的核函數結合起來后會有更好的特性,這是混合核函數方法的基本思想。

208.已知一組數據的協方差矩陣P,下面關于主分量說法錯誤的是( C )

A. 主分量分析的最佳準則是對一組數據進行按一組正交基分解, 在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小?

B. 在經主分量分解后,協方差矩陣成為對角矩陣?

C. 主分量分析就是K-L變換?

D. 主分量是通過求協方差矩陣的特征值得到

正確答案:( C )

解析:K-L變換與PCA變換是不同的概念,PCA的變換矩陣是協方差矩陣,K-L變換的變換矩陣可以有很多種(二階矩陣、協方差矩陣、總類內離散度矩陣等等)。當K-L變換矩陣為協方差矩陣時,等同于PCA。

209.在分類問題中,我們經常會遇到正負樣本數據量不等的情況,比如正樣本為10w條數據,負樣本只有1w條數據,以下最合適的處理方法是( ACD)?

A. 將負樣本重復10次,生成10w樣本量,打亂順序參與分類?

B. 直接進行分類,可以最大限度利用數據?

C. 從10w正樣本中隨機抽取1w參與分類?

D. 將負樣本每個權重設置為10,正樣本權重為1,參與訓練過程

正確答案:( ACD)?

解析:?

1.重采樣。 A可視作重采樣的變形。改變數據分布消除不平衡,可能導致過擬合。?

2.欠采樣。 C的方案 提高少數類的分類性能,可能丟失多數類的重要信息。?

如果1:10算是均勻的話,可以將多數類分割成為1000份。然后將每一份跟少數類的樣本組合進行訓練得到分類器。而后將這1000個分類器用assemble的方法組合位一個分類器。A選項可以看作此方式,因而相對比較合理。?

另:如果目標是 預測的分布 跟訓練的分布一致,那就加大對分布不一致的懲罰系數。?

3. 權值調整。 D方案也是其中一種方式。?

當然,這只是在數據集上進行相應的處理,在算法上也有相應的處理方法。

210.在統計模式識分類問題中,當先驗概率未知時,可以使用( BC )?

A. 最小損失準則?

B. N-P判決?

C. 最小最大損失準則?

D. 最小誤判概率準則

正確答案:( BC )

?

選項 A ,最小損失準則中需要用到先驗概率

選項B ,在貝葉斯決策中,對于先驗概率p(y),分為已知和未知兩種情況。?

1. p(y)已知,直接使用貝葉斯公式求后驗概率即可;?

2. p(y)未知,可以使用聶曼-皮爾遜決策(N-P決策)來計算決策面。?

聶曼-皮爾遜決策(N-P判決)可以歸結為找閾值a,即:?

如果p(x|w1)/p(x|w2)>a,則 x屬于w1;?

如果p(x|w1)/p(x|w2)

選項C ,最大最小損失規則主要就是使用解決最小損失規則時先驗概率未知或難以計算的問題的。

?211.解決隱馬模型中預測問題的算法是?(D)?

A. 前向算法?

B. 后向算法?

C. Baum-Welch算法?

D. 維特比算法

正確答案:(D)

@劉炫320

A、B:前向、后向算法解決的是一個評估問題,即給定一個模型,求某特定觀測序列的概率,用于評估該序列最匹配的模型。?

C:Baum-Welch算法解決的是一個模型訓練問題,即參數估計,是一種無監督的訓練方法,主要通過EM迭代實現;?

D:維特比算法解決的是給定 一個模型和某個特定的輸出序列,求最可能產生這個輸出的狀態序列。如通過海藻變化(輸出序列)來觀測天氣(狀態序列),是預測問題,通信中的解碼問題。

212.一般,k-NN最近鄰方法在( B )的情況下效果較好。

A. 樣本較多但典型性不好?

B. 樣本較少但典型性好?

C. 樣本呈團狀分布?

D. 樣本呈鏈狀分布

正確答案:( B )

解析:?

K近鄰算法主要依靠的是周圍的點,因此如果樣本過多,那肯定是區分不出來的。因此應當選擇B。

樣本呈團狀頗有迷惑性,這里應該指的是整個樣本都是呈團狀分布,這樣kNN就發揮不出其求近鄰的優勢了,整體樣本應該具有典型性好,樣本較少,比較適宜。

213.下列方法中,可以用于特征降維的方法包括(ABCD)

A. 主成分分析PCA?

B. 線性判別分析LDA?

C. 深度學習SparseAutoEncoder?

D. 矩陣奇異值分解SVD?

E. 最小二乘法LeastSquares

正確答案:(ABCD)

解析:降維的3種常見方法ABD,都是線性的。深度學習是降維的方法這個就比較新鮮了,事實上,細細想來,也是降維的一種方法,因為如果隱藏層中的神經元數目要小于輸入層,那就達到了降維,但如果隱藏層中的神經元如果多余輸入層,那就不是降維了。

最小二乘法是線性回歸的一種解決方法,其實也是投影,但是并沒有進行降維。

214.下面哪些是基于核的機器學習算法?( BCD )

A. Expectation Maximization(EM)(最大期望算法)?

B. Radial Basis Function(RBF)(徑向基核函數)?

C. Linear Discrimimate Analysis(LDA)(主成分分析法)?

D. Support Vector Machine(SVM)(支持向量機)

正確答案:( BCD )

解析:徑向基核函數是非常常用的核函數,而主成分分析法的常規方法是線性的,但是當遇到非線性的時候,同樣可以使用核方法使得非線性問題轉化為線性問題。支持向量機處理非線性的問題的時候,核函數也是非常重要的。

215.試推導樣本空間中任意點x到超平面(w,b)的距離公式。

216.從網上下載或自己編程實現一個卷積神經網絡,并在手寫字符識別數據MNIST上進行試驗測試。

解析詳見:周志華《機器學習》課后習題解答系列(六):Ch5.10 - 卷積神經網絡實驗

217.神經網絡中激活函數的真正意義?一個激活函數需要具有哪些必要的屬性?還有哪些屬是好的屬性但不必要的?

@Hengkai Guo

說說我對一個好的激活函數的理解吧,有些地方可能不太嚴謹,歡迎討論。(部分參考了Activation function。)?

1. 非線性:即導數不是常數。這個條件前面很多答主都提到了,是多層神經網絡的基礎,保證多層網絡不退化成單層線性網絡。這也是激活函數的意義所在。?

2. 幾乎處處可微:可微性保證了在優化中梯度的可計算性。傳統的激活函數如sigmoid等滿足處處可微。對于分段線性函數比如ReLU,只滿足幾乎處處可微(即僅在有限個點處不可微)。對于SGD算法來說,由于幾乎不可能收斂到梯度接近零的位置,有限的不可微點對于優化結果不會有很大影響[1]。?

3. 計算簡單:正如題主所說,非線性函數有很多。極端的說,一個多層神經網絡也可以作為一個非線性函數,類似于Network In Network[2]中把它當做卷積操作的做法。但激活函數在神經網絡前向的計算次數與神經元的個數成正比,因此簡單的非線性函數自然更適合用作激活函數。這也是ReLU之流比其它使用Exp等操作的激活函數更受歡迎的其中一個原因。?

4. 非飽和性(saturation):飽和指的是在某些區間梯度接近于零(即梯度消失),使得參數無法繼續更新的問題。最經典的例子是Sigmoid,它的導數在x為比較大的正值和比較小的負值時都會接近于0。更極端的例子是階躍函數,由于它在幾乎所有位置的梯度都為0,因此處處飽和,無法作為激活函數。ReLU在x>0時導數恒為1,因此對于再大的正值也不會飽和。但同時對于x<0,其梯度恒為0,這時候它也會出現飽和的現象(在這種情況下通常稱為dying ReLU)。Leaky ReLU[3]和PReLU[4]的提出正是為了解決這一問題。?

5. 單調性(monotonic):即導數符號不變。這個性質大部分激活函數都有,除了諸如sin、cos等。個人理解,單調性使得在激活函數處的梯度方向不會經常改變,從而讓訓練更容易收斂。?

6. 輸出范圍有限:有限的輸出范圍使得網絡對于一些比較大的輸入也會比較穩定,這也是為什么早期的激活函數都以此類函數為主,如Sigmoid、TanH。但這導致了前面提到的梯度消失問題,而且強行讓每一層的輸出限制到固定范圍會限制其表達能力。因此現在這類函數僅用于某些需要特定輸出范圍的場合,比如概率輸出(此時loss函數中的log操作能夠抵消其梯度消失的影響[1])、LSTM里的gate函數。?

7. 接近恒等變換(identity):即約等于x。這樣的好處是使得輸出的幅值不會隨著深度的增加而發生顯著的增加,從而使網絡更為穩定,同時梯度也能夠更容易地回傳。這個與非線性是有點矛盾的,因此激活函數基本只是部分滿足這個條件,比如TanH只在原點附近有線性區(在原點為0且在原點的導數為1),而ReLU只在x>0時為線性。這個性質也讓初始化參數范圍的推導更為簡單[5][4]。額外提一句,這種恒等變換的性質也被其他一些網絡結構設計所借鑒,比如CNN中的ResNet[6]和RNN中的LSTM。?

8. 參數少:大部分激活函數都是沒有參數的。像PReLU帶單個參數會略微增加網絡的大小。還有一個例外是Maxout[7],盡管本身沒有參數,但在同樣輸出通道數下k路Maxout需要的輸入通道數是其它函數的k倍,這意味著神經元數目也需要變為k倍;但如果不考慮維持輸出通道數的情況下,該激活函數又能將參數個數減少為原來的k倍。?

9. 歸一化(normalization):這個是最近才出來的概念,對應的激活函數是SELU[8],主要思想是使樣本分布自動歸一化到零均值、單位方差的分布,從而穩定訓練。在這之前,這種歸一化的思想也被用于網絡結構的設計,比如Batch Normalization[9]。

218.梯度下降法的神經網絡容易收斂到局部最優,為什么應用廣泛?

@李振華

知乎答案

219.EM算法、HMM、CRF。

這三個放在一起不是很恰當,但是有互相有關聯,所以就放在這里一起說了。注意重點關注算法的思想。?

(1)EM算法?

EM算法是用于含有隱變量模型的極大似然估計或者極大后驗估計,有兩步組成:E步,求期望(expectation);M步,求極大(maxmization)。本質上EM算法還是一個迭代算法,通過不斷用上一代參數對隱變量的估計來對當前變量進行計算,直到收斂。?

注意:EM算法是對初值敏感的,而且EM是不斷求解下界的極大化逼近求解對數似然函數的極大化的算法,也就是說EM算法不能保證找到全局最優值。對于EM的導出方法也應該掌握。?

(2)HMM算法?

隱馬爾可夫模型是用于標注問題的生成模型。有幾個參數(π,A,B):初始狀態概率向量π,狀態轉移矩陣A,觀測概率矩陣B。稱為馬爾科夫模型的三要素。?

馬爾科夫三個基本問題:?

概率計算問題:給定模型和觀測序列,計算模型下觀測序列輸出的概率。–》前向后向算法?

學習問題:已知觀測序列,估計模型參數,即用極大似然估計來估計參數。–》Baum-Welch(也就是EM算法)和極大似然估計。?

預測問題:已知模型和觀測序列,求解對應的狀態序列。–》近似算法(貪心算法)和維比特算法(動態規劃求最優路徑)?

(3)條件隨機場CRF?

給定一組輸入隨機變量的條件下另一組輸出隨機變量的條件概率分布密度。條件隨機場假設輸出變量構成馬爾科夫隨機場,而我們平時看到的大多是線性鏈條隨機場,也就是由輸入對輸出進行預測的判別模型。求解方法為極大似然估計或正則化的極大似然估計。?

之所以總把HMM和CRF進行比較,主要是因為CRF和HMM都利用了圖的知識,但是CRF利用的是馬爾科夫隨機場(無向圖),而HMM的基礎是貝葉斯網絡(有向圖)。而且CRF也有:概率計算問題、學習問題和預測問題。大致計算方法和HMM類似,只不過不需要EM算法進行學習問題。?

(4)HMM和CRF對比?

其根本還是在于基本的理念不同,一個是生成模型,一個是判別模型,這也就導致了求解方式的不同。

220.CNN常用的幾個模型。

221.帶核的SVM為什么能分類非線性問題?

核函數的本質是兩個函數的內積,而這個函數在SVM中可以表示成對于輸入值的高維映射。注意核并不是直接對應映射,核只不過是一個內積。

222.常用核函數及核函數的條件。

核函數選擇的時候應該從線性核開始,而且在特征很多的情況下沒有必要選擇高斯核,應該從簡單到難的選擇模型。我們通常說的核函數指的是正定和函數,其充要條件是對于任意的x屬于X,要求K對應的Gram矩陣要是半正定矩陣。?

RBF核徑向基,這類函數取值依賴于特定點間的距離,所以拉普拉斯核其實也是徑向基核。?

線性核:主要用于線性可分的情況?

多項式核

223.Boosting和Bagging。

(1)隨機森林?

隨機森林改變了決策樹容易過擬合的問題,這主要是由兩個操作所優化的:?

1)Boostrap從袋內有放回的抽取樣本值?

2)每次隨機抽取一定數量的特征(通常為sqr(n))。?

分類問題:采用Bagging投票的方式選擇類別頻次最高的?

回歸問題:直接取每顆樹結果的平均值。

(2)Boosting之AdaBoost?

Boosting的本質實際上是一個加法模型,通過改變訓練樣本權重學習多個分類器并進行一些線性組合。而Adaboost就是加法模型+指數損失函數+前項分布算法。Adaboost就是從弱分類器出發反復訓練,在其中不斷調整數據權重或者是概率分布,同時提高前一輪被弱分類器誤分的樣本的權值。最后用分類器進行投票表決(但是分類器的重要性不同)。?

(3)Boosting之GBDT?

將基分類器變成二叉樹,回歸用二叉回歸樹,分類用二叉分類樹。和上面的Adaboost相比,回歸樹的損失函數為平方損失,同樣可以用指數損失函數定義分類問題。但是對于一般損失函數怎么計算呢?GBDT(梯度提升決策樹)是為了解決一般損失函數的優化問題,方法是用損失函數的負梯度在當前模型的值來模擬回歸問題中殘差的近似值。?

注:由于GBDT很容易出現過擬合的問題,所以推薦的GBDT深度不要超過6,而隨機森林可以在15以上。?

(4)Xgboost?

這個工具主要有以下幾個特點:?

支持線性分類器?

可以自定義損失函數,并且可以用二階偏導?

加入了正則化項:葉節點數、每個葉節點輸出score的L2-norm?

支持特征抽樣?

在一定情況下支持并行,只有在建樹的階段才會用到,每個節點可以并行的尋找分裂特征。

224.邏輯回歸相關問題。

(1)公式推導一定要會?

(2)邏輯回歸的基本概念?

這個最好從廣義線性模型的角度分析,邏輯回歸是假設y服從Bernoulli分布。?

(3)L1-norm和L2-norm?

其實稀疏的根本還是在于L0-norm也就是直接統計參數不為0的個數作為規則項,但實際上卻不好執行于是引入了L1-norm;而L1norm本質上是假設參數先驗是服從Laplace分布的,而L2-norm是假設參數先驗為Gaussian分布,我們在網上看到的通常用圖像來解答這個問題的原理就在這。?

但是L1-norm的求解比較困難,可以用坐標軸下降法或是最小角回歸法求解。?

(4)LR和SVM對比?

首先,LR和SVM最大的區別在于損失函數的選擇,LR的損失函數為Log損失(或者說是邏輯損失都可以)、而SVM的損失函數為hinge loss?

minw,b∑iN[1?yi(w?xi+b)]+λ||w||2minw,b∑iN[1?yi(w?xi+b)]+λ||w||2

其次,兩者都是線性模型。?

最后,SVM只考慮支持向量(也就是和分類相關的少數點)?

(5)LR和隨機森林區別?

隨機森林等樹算法都是非線性的,而LR是線性的。LR更側重全局優化,而樹模型主要是局部的優化。?

(6)常用的優化方法?

邏輯回歸本身是可以用公式求解的,但是因為需要求逆的復雜度太高,所以才引入了梯度下降算法。?

一階方法:梯度下降、隨機梯度下降、mini 隨機梯度下降降法。隨機梯度下降不但速度上比原始梯度下降要快,局部最優化問題時可以一定程度上抑制局部最優解的發生。?

二階方法:牛頓法、擬牛頓法:?

這里詳細說一下牛頓法的基本原理和牛頓法的應用方式。牛頓法其實就是通過切線與x軸的交點不斷更新切線的位置,直到達到曲線與x軸的交點得到方程解。在實際應用中我們因為常常要求解凸優化問題,也就是要求解函數一階導數為0的位置,而牛頓法恰好可以給這種問題提供解決方法。實際應用中牛頓法首先選擇一個點作為起始點,并進行一次二階泰勒展開得到導數為0的點進行一個更新,直到達到要求,這時牛頓法也就成了二階求解問題,比一階方法更快。我們常常看到的x通常為一個多維向量,這也就引出了Hessian矩陣的概念(就是x的二階導數矩陣)。缺點:牛頓法是定長迭代,沒有步長因子,所以不能保證函數值穩定的下降,嚴重時甚至會失敗。還有就是牛頓法要求函數一定是二階可導的。而且計算Hessian矩陣的逆復雜度很大。?

擬牛頓法: 不用二階偏導而是構造出Hessian矩陣的近似正定對稱矩陣的方法稱為擬牛頓法。擬牛頓法的思路就是用一個特別的表達形式來模擬Hessian矩陣或者是他的逆使得表達式滿足擬牛頓條件。主要有DFP法(逼近Hession的逆)、BFGS(直接逼近Hession矩陣)、 L-BFGS(可以減少BFGS所需的存儲空間)。

225.用貝葉斯機率說明Dropout的原理。

參考答案

226.為什么很多做人臉的Paper會最后加入一個Local Connected Conv?

@許韓

以FaceBook DeepFace 為例:

DeepFace 先進行了兩次全卷積+一次池化,提取了低層次的邊緣/紋理等特征。后接了3個Local-Conv層,這里是用Local-Conv的原因是,人臉在不同的區域存在不同的特征(眼睛/鼻子/嘴的分布位置相對固定),當不存在全局的局部特征分布時,Local-Conv更適合特征的提取。

227.什么事共線性, 跟過擬合有什么關聯?

@抽象猴

共線性:多變量線性回歸中,變量之間由于存在高度相關關系而使回歸估計不準確。?

共線性會造成冗余,導致過擬合。

解決方法:排除變量的相關性/加入權重正則。

228.為什么網絡夠深(Neurons 足夠多)的時候,總是可以避開較差Local Optima?

參見:The Loss Surfaces of Multilayer Networks

229.機器學習中的正負樣本。

在分類問題中,這個問題相對好理解一點,比如人臉識別中的例子,正樣本很好理解,就是人臉的圖片,負樣本的選取就與問題場景相關,具體而言,如果你要進行教室中學生的人臉識別,那么負樣本就是教室的窗子、墻等等,也就是說,不能是與你要研究的問題毫不相關的亂七八糟的場景圖片,這樣的負樣本并沒有意義。負樣本可以根據背景生成,有時候不需要尋找額外的負樣本。一般3000-10000的正樣本需要5,000,000-100,000,000的負樣本來學習,在互金領域一般在入模前將正負比例通過采樣的方法調整到3:1-5:1。

230.機器學習中,有哪些特征選擇的工程方法?

數據和特征決定了機器學習的上限,而模型和算法只是逼近這個上限而已。

1.計算每一個特征與響應變量的相關性:工程上常用的手段有計算皮爾遜系數和互信息系數,皮爾遜系數只能衡量線性相關性而互信息系數能夠很好地度量各種相關性,但是計算相對復雜一些,好在很多toolkit里邊都包含了這個工具(如sklearn的MINE),得到相關性之后就可以排序選擇特征了;?

2.構建單個特征的模型,通過模型的準確性為特征排序,借此來選擇特征;?

3.通過L1正則項來選擇特征:L1正則方法具有稀疏解的特性,因此天然具備特征選擇的特性,但是要注意,L1沒有選到的特征不代表不重要,原因是兩個具有高相關性的特征可能只保留了一個,如果要確定哪個特征重要應再通過L2正則方法交叉檢驗*;?

4.訓練能夠對特征打分的預選模型:RandomForest和Logistic Regression等都能對模型的特征打分,通過打分獲得相關性后再訓練最終模型;?

5.通過特征組合后再來選擇特征:如對用戶id和用戶特征最組合來獲得較大的特征集再來選擇特征,這種做法在推薦系統和廣告系統中比較常見,這也是所謂億級甚至十億級特征的主要來源,原因是用戶數據比較稀疏,組合特征能夠同時兼顧全局模型和個性化模型,這個問題有機會可以展開講。?

6.通過深度學習來進行特征選擇:目前這種手段正在隨著深度學習的流行而成為一種手段,尤其是在計算機視覺領域,原因是深度學習具有自動學習特征的能力,這也是深度學習又叫unsupervised feature learning的原因。從深度學習模型中選擇某一神經層的特征后就可以用來進行最終目標模型的訓練了。

231.在一個n維的空間中, 最好的檢測outlier(離群點)的方法是:(C)

A. 作正態分布概率圖?

B. 作盒形圖?

C. 馬氏距離?

D. 作散點圖

答案:(C)

馬氏距離是基于卡方分布的,度量多元outlier離群點的統計方法。更多請詳見:?從K近鄰算法、距離度量談到KD樹、SIFT+BBF算法。

232.對數幾率回歸(logistics regression)和一般回歸分析有什么區別?(D)

A. 對數幾率回歸是設計用來預測事件可能性的?

B. 對數幾率回歸可以用來度量模型擬合程度?

C. 對數幾率回歸可以用來估計回歸系數?

D. 以上所有

答案:(D)?

A: 對數幾率回歸其實是設計用來解決分類問題的?

B: 對數幾率回歸可以用來檢驗模型對數據的擬合度?

C: 雖然對數幾率回歸是用來解決分類問題的,但是模型建立好后,就可以根據獨立的特征,估計相關的回歸系數。就我認為,這只是估計回歸系數,不能直接用來做回歸模型。

233.bootstrap數據是什么意思?(提示:考“bootstrap”和“boosting”區別)(C)

A. 有放回地從總共M個特征中抽樣m個特征?

B. 無放回地從總共M個特征中抽樣m個特征?

C. 有放回地從總共N個樣本中抽樣n個樣本?

D. 無放回地從總共N個樣本中抽樣n個樣本

答案:(C)

234.“過擬合”只在監督學習中出現,在非監督學習中,沒有”過擬合”,這是:(B)

A. 對的?

B. 錯的?

答案:(B)

我們可以評估無監督學習方法通過無監督學習的指標,如:我們可以評估聚類模型通過調整蘭德系數(adjusted rand score)。

235.對于k折交叉驗證, 以下對k的說法正確的是 :(D)

A. k越大, 不一定越好, 選擇大的k會加大評估時間?

B. 選擇更大的k, 就會有更小的bias (因為訓練集更加接近總數據集)?

C. 在選擇k時, 要最小化數據集之間的方差?

D. 以上所有

答案:(D)

k越大, bias越小, 訓練時間越長. 在訓練時, 也要考慮數據集間方差差別不大的原則. 比如, 對于二類分類問題, 使用2-折交叉驗證, 如果測試集里的數據都是A類的, 而訓練集中數據都是B類的, 顯然, 測試效果會很差。

236.回歸模型中存在多重共線性, 你如何解決這個問題?

1.去除這兩個共線性變量?

2.我們可以先去除一個共線性變量?

3.計算VIF(方差膨脹因子), 采取相應措施?

4.為了避免損失信息, 我們可以使用一些正則化方法, 比如, 嶺回歸和lasso回歸.?

以下哪些是對的:(D)

A. 1?

B. 2?

C. 2和3?

D. 2, 3和4

答案: (D)

解決多重公線性, 可以使用相關矩陣去去除相關性高于75%的變量 (有主觀成分). 也可以VIF, 如果VIF值<=4說明相關性不是很高, VIF值>=10說明相關性較高.?

我們也可以用 嶺回歸和lasso回歸的帶有懲罰正則項的方法. 我們也可以在一些變量上加隨機噪聲, 使得變量之間變得不同, 但是這個方法要小心使用, 可能會影響預測效果。

237.模型的高bias是什么意思, 我們如何降低它 ?(B)

A. 在特征空間中減少特征?

B. 在特征空間中增加特征?

C. 增加數據點?

D. B和C?

E. 以上所有

答案: (B)

bias太高說明模型太簡單了, 數據維數不夠, 無法準確預測數據, 所以, 升維吧 !

238.訓練決策樹模型, 屬性節點的分裂, 具有最大信息增益的圖是下圖的哪一個:(A)

A. Outlook?

B. Humidity?

C. Windy?

D. Temperature

答案: (A)

信息增益, 增加平均子集純度。

239.對于信息增益, 決策樹分裂節點, 下面說法正確的是: (C)

1.純度高的節點需要更多的信息去區分?

2.信息增益可以用”1比特-熵”獲得?

3.如果選擇一個屬性具有許多歸類值, 那么這個信息增益是有偏差的

A. 1?

B. 2?

C. 2和3?

D. 所有以上

答案: (C)

240.如果SVM模型欠擬合, 以下方法哪些可以改進模型 : (A)

A. 增大懲罰參數C的值?

B. 減小懲罰參數C的值?

C. 減小核系數(gamma參數)

答案:(A)

如果SVM模型欠擬合, 我們可以調高參數C的值, 使得模型復雜度上升。

?241.下圖是同一個SVM模型, 但是使用了不同的徑向基核函數的gamma參數, 依次是g1, g2, g3 , 下面大小比較正確的是 :(C)

A. g1 > g2 > g3?

B. g1 = g2 = g3?

C. g1 < g2 < g3?

D. g1 >= g2 >= g3?

E. g1 <= g2 <= g3

答案: (C)

242.假設我們要解決一個二類分類問題, 我們已經建立好了模型, 輸出是0或1, 初始時設閾值為0.5, 超過0.5概率估計, 就判別為1, 否則就判別為0 ; 如果我們現在用另一個大于0.5的閾值, 那么現在關于模型說法, 正確的是 : (C)

1.模型分類的召回率會降低或不變?

2.模型分類的召回率會升高?

3.模型分類準確率會升高或不變?

4.模型分類準確率會降低

A. 1?

B. 2?

C.1和3?

D. 2和4?

E. 以上都不是

答案: (C)

243.”點擊率問題”是這樣一個預測問題, 99%的人是不會點擊的, 而1%的人是會點擊進去的, 所以這是一個非常不平衡的數據集. 假設, 現在我們已經建了一個模型來分類, 而且有了99%的預測準確率, 我們可以下的結論是 : (B)

A. 模型預測準確率已經很高了, 我們不需要做什么了?

B. 模型預測準確率不高, 我們需要做點什么改進模型?

C. 無法下結論?

D. 以上都不對

答案: (B)

99%的預測準確率可能說明, 你預測的沒有點進去的人很準確 (因為有99%的人是不會點進去的, 這很好預測)。不能說明你的模型對點進去的人預測準確, 所以, 對于這樣的非平衡數據集, 我們要把注意力放在小部分的數據上, 即那些點擊進去的人。

244.使用k=1的KNN算法, 下圖二類分類問題, “+” 和 “o” 分別代表兩個類, 那么, 用僅拿出一個測試樣本的交叉驗證方法, 交叉驗證的錯誤率是多少 :(B)

A. 0%?

B. 100%?

C. 0% 到 100%?

D. 以上都不是

答案: (B)

KNN算法就是, 在樣本周圍看k個樣本, 其中大多數樣本的分類是A類, 我們就把這個樣本分成A類. 顯然, k=1 的KNN在上圖不是一個好選擇, 分類的錯誤率始終是100%。

245.我們想在大數據集上訓練決策樹, 為了使用較少時間, 我們可以 : (C)

A. 增加樹的深度?

B. 增加學習率 (learning rate)?

C. 減少樹的深度?

D. 減少樹的數量

答案: (C)

A.增加樹的深度, 會導致所有節點不斷分裂, 直到葉子節點是純的為止. 所以, 增加深度, 會延長訓練時間。?

B.決策樹沒有學習率參數可以調。(不像集成學習和其它有步長的學習方法)?

D.決策樹只有一棵樹, 不是隨機森林。

246.對于神經網絡的說法, 下面正確的是 : (A)?

1.增加神經網絡層數, 可能會增加測試數據集的分類錯誤率?

2.減少神經網絡層數, 總是能減小測試數據集的分類錯誤率?

3.增加神經網絡層數, 總是能減小訓練數據集的分類錯誤率

A. 1?

B. 1 和 3?

C. 1 和 2?

D. 2

答案: (A)

深度神經網絡的成功, 已經證明, 增加神經網絡層數, 可以增加模型范化能力, 即訓練數據集和測試數據集都表現得更好. 但更多的層數, 也不一定能保證有更好的表現https://arxiv.org/pdf/1512.03385v1.pdf。所以,不能絕對地說層數多的好壞, 只能選A。

247.假如我們使用非線性可分的SVM目標函數作為最優化對象, 我們怎么保證模型線性可分?(C)

A. 設C=1?

B. 設C=0?

C. 設C=無窮大?

D. 以上都不對

答案: (C)

C無窮大保證了所有的線性不可分都是可以忍受的。

248.訓練完SVM模型后, 不是支持向量的那些樣本我們可以丟掉, 也可以繼續分類:(A)

A. 正確?

B. 錯誤

答案: (A)?

SVM模型中, 真正影響決策邊界的是支持向量。

249.以下哪些算法, 可以用神經網絡去構造: (B)?

1.KNN?

2.線性回歸?

3.對數幾率回歸

A. 1和 2?

B. 2 和 3?

C. 1, 2 和 3?

D. 以上都不是

答案: (B)?

1.KNN算法不需要訓練參數, 而所有神經網絡都需要訓練參數, 因此神經網絡幫不上忙?

2.最簡單的神經網絡, 感知器, 其實就是線性回歸的訓練?

3.我們可以用一層的神經網絡構造對數幾率回歸

250.請選擇下面可以應用隱馬爾科夫(HMM)模型的選項: (D)

A. 基因序列數據集?

B. 電影瀏覽數據集?

C. 股票市場數據集?

D. 所有以上

答案: (D)?

只要是和時間序列問題有關的 , 都可以試試HMM。

251.我們建立一個5000個特征, 100萬數據的機器學習模型. 我們怎么有效地應對這樣的大數據訓練 : (F)

A. 我們隨機抽取一些樣本, 在這些少量樣本之上訓練?

B. 我們可以試用在線機器學習算法?

C. 我們應用PCA算法降維, 減少特征數?

D. B 和 C?

E. A 和 B?

F. 以上所有

答案: (F)

252.我們想要減少數據集中的特征數, 即降維. 選擇以下適合的方案 :(D)?

1.使用前向特征選擇方法?

2.使用后向特征排除方法?

3.我們先把所有特征都使用, 去訓練一個模型, 得到測試集上的表現. 然后我們去掉一個特征, 再去訓練, 用交叉驗證看看測試集上的表現. 如果表現比原來還要好, 我們可以去除這個特征?

4.查看相關性表, 去除相關性最高的一些特征

A. 1 和 2?

B. 2, 3和4?

C. 1, 2和4?

D. All

答案: (D)?

1.前向特征選擇方法和后向特征排除方法是我們特征選擇的常用方法?

2.如果前向特征選擇方法和后向特征排除方法在大數據上不適用, 可以用這里第三種方法?

3.用相關性的度量去刪除多余特征, 也是一個好方法

所以D是正確的。

253.對于隨機森林和GradientBoosting Trees, 下面說法正確的是:(A)?

1.在隨機森林的單個樹中, 樹和樹之間是有依賴的, 而GradientBoosting Trees中的單個樹之間是沒有依賴的?

2.這兩個模型都使用隨機特征子集, 來生成許多單個的樹?

3.我們可以并行地生成GradientBoosting Trees單個樹, 因為它們之間是沒有依賴的, GradientBoosting Trees訓練模型的表現總是比隨機森林好

A. 2?

B. 1 and 2?

C. 1, 3 and 4?

D. 2 and 4

答案: (A)?

1.隨機森林是基于bagging的, 而Gradient Boosting trees是基于boosting的, 所有說反了,在隨機森林的單個樹中, 樹和樹之間是沒有依賴的, 而GradientBoosting Trees中的單個樹之間是有依賴關系。?

2.這兩個模型都使用隨機特征子集, 來生成許多單個的樹。

所以A是正確的。

254.對于PCA(主成分分析)轉化過的特征 , 樸素貝葉斯的”不依賴假設”總是成立, 因為所有主要成分是正交的, 這個說法是 :(B)

A. 正確的?

B. 錯誤的

答案: (B)?

這個說法是錯誤的。首先,“不依賴”和“不相關”是兩回事;其次, 轉化過的特征, 也可能是相關的。

255.對于PCA說法正確的是 :(A)?

1.我們必須在使用PCA前規范化數據?

2.我們應該選擇使得模型有最大variance的主成分?

3.我們應該選擇使得模型有最小variance的主成分?

4.我們可以使用PCA在低維度上做數據可視化

A. 1, 2 and 4?

B. 2 and 4?

C. 3 and 4?

D. 1 and 3?

E. 1, 3 and 4

答案: (A)?

1)PCA對數據尺度很敏感, 打個比方, 如果單位是從km變為cm, 這樣的數據尺度對PCA最后的結果可能很有影響(從不怎么重要的成分變為很重要的成分)?

2)我們總是應該選擇使得模型有最大variance的主成分?

3)有時在低維度上左圖是需要PCA的降維幫助的

256.對于下圖, 最好的主成分選擇是多少 ?(B)

A. 7?

B. 30?

C. 35?

D. 不確定

答案: (B)?

主成分選擇使variance越大越好, 在這個前提下, 主成分越少越好。

257.數據科學家可能會同時使用多個算法(模型)進行預測, 并且最后把這些算法的結果集成起來進行最后的預測(集成學習),以下對集成學習說法正確的是 :(B)

A. 單個模型之間有高相關性?

B. 單個模型之間有低相關性?

C. 在集成學習中使用“平均權重”而不是“投票”會比較好?

D. 單個模型都是用的一個算法

答案: (B)

258.在有監督學習中, 我們如何使用聚類方法?(B)?

1.我們可以先創建聚類類別, 然后在每個類別上用監督學習分別進行學習?

2.我們可以使用聚類“類別id”作為一個新的特征項, 然后再用監督學習分別進行學習?

3.在進行監督學習之前, 我們不能新建聚類類別?

4.我們不可以使用聚類“類別id”作為一個新的特征項, 然后再用監督學習分別進行學習

A. 2 和 4?

B. 1 和 2?

C. 3 和 4?

D. 1 和 3

答案: (B)?

我們可以為每個聚類構建不同的模型, 提高預測準確率;“類別id”作為一個特征項去訓練, 可以有效地總結了數據特征。所以B是正確的。

259.以下說法正確的是 :(C)?

1.一個機器學習模型,如果有較高準確率,總是說明這個分類器是好的?

2.如果增加模型復雜度, 那么模型的測試錯誤率總是會降低?

3.如果增加模型復雜度, 那么模型的訓練錯誤率總是會降低?

4.我們不可以使用聚類“類別id”作為一個新的特征項, 然后再用監督學習分別進行學習

A. 1?

B. 2?

C. 3?

D. 1 and 3

答案: (C)?

考的是過擬合和欠擬合的問題。

260.對應GradientBoosting tree算法, 以下說法正確的是 :(C)?

1.當增加最小樣本分裂個數,我們可以抵制過擬合?

2.當增加最小樣本分裂個數,會導致過擬合?

3.當我們減少訓練單個學習器的樣本個數,我們可以降低variance?

4.當我們減少訓練單個學習器的樣本個數,我們可以降低bias

A. 2 和 4?

B. 2 和 3?

C. 1 和 3?

D. 1 和 4

答案: (C)?

最小樣本分裂個數是用來控制“過擬合”參數。太高的值會導致“欠擬合”,這個參數應該用交叉驗證來調節。第二點是靠bias和variance概念的。

261.以下哪個圖是KNN算法的訓練邊界 ? (B)

A) B?

B) A?

C) D?

D) C?

E) 都不是

答案:(B)?

KNN算法肯定不是線性的邊界,所以直的邊界就不用考慮了。另外這個算法是看周圍最近的k個樣本的分類用以確定分類,所以邊界一定是坑坑洼洼的。

262.如果一個訓練好的模型在測試集上有100%的準確率, 這是不是意味著在一個新的數據集上,也會有同樣好的表現?(B)

A. 是的,這說明這個模型的范化能力已經足以支持新的數據集合了?

B. 不對,依然后其他因素模型沒有考慮到,比如噪音數據

答案:(B)?

沒有一個模型是可以總是適應新的數據的。我們不可能達到100%的準確率。

263.下面的交叉驗證方法 :(B)?

i. 有放回的Bootstrap方法?

ii. 留一個測試樣本的交叉驗證?

iii. 5折交叉驗證?

iv. 重復兩次的5折交叉驗證?

當樣本是1000時,下面執行時間的順序,正確的是:

A. i > ii > iii > iv?

B. ii > iv > iii > i?

C. iv > i > ii > iii?

D. ii > iii > iv > i

答案:(B)

Bootstrap方法是傳統的隨機抽樣,驗證一次的驗證方法,只需要訓練1個模型,所以時間最少。

留一個測試樣本的交叉驗證,需要n次訓練過程(n是樣本個數),這里,需要訓練1000個模型。

5折交叉驗證需要訓練5個模型。

重復兩次的5折交叉驗證,需要訓練10個模型。

264.變量選擇是用來選擇最好的判別器子集, 如果要考慮模型效率,我們應該做哪些變量選擇的考慮? :(C)

1.多個變量其實有相同的用處?

2.變量對于模型的解釋有多大作用?

3.特征攜帶的信息?

4.交叉驗證

A. 1 和 4?

B. 1, 2 和 3?

C. 1,3 和 4?

D. 以上所有

答案:(C)?

注意,這題的題眼是考慮模型效率,所以不要考慮選項B

265.對于線性回歸模型,包括附加變量在內,以下的可能正確的是 :(D)?

1.R-Squared 和 Adjusted R-squared都是遞增的?

2.R-Squared 是常量的,Adjusted R-squared是遞增的?

3.R-Squared 是遞減的, Adjusted R-squared 也是遞減的?

4.R-Squared 是遞減的, Adjusted R-squared是遞增的

A. 1 和 2?

B. 1 和 3?

C. 2 和 4?

D. 以上都不是

答案:(D)?

R-Squared不能決定系數估計和預測偏差,這就是為什么我們要估計殘差圖。但是,R-Squared有R-Squared和predicted R-Squared所沒有的問題。每次為模型加入預測器,R-Squared遞增或者不變。

266.對于下面三個模型的訓練情況, 下面說法正確的是 :(C)

1.第一張圖的訓練錯誤與其余兩張圖相比,是最大的?

2.最后一張圖的訓練效果最好,因為訓練錯誤最小?

3.第二張圖比第一和第三張圖魯棒性更強,是三個里面表現最好的模型?

4.第三張圖相對前兩張圖過擬合了?

5.三個圖表現一樣,因為我們還沒有測試數據集

A. 1 和 3?

B. 1 和 3?

C. 1, 3 和 4?

D. 5

267.對于線性回歸,我們應該有以下哪些假設?(D)?

1.找到利群點很重要, 因為線性回歸對利群點很敏感?

2.線性回歸要求所有變量必須符合正態分布?

3.線性回歸假設數據沒有多重線性相關性

A. 1 和 2?

B. 2 和 3?

C. 1,2 和 3?

D. 以上都不是

答案:(D)

利群點要著重考慮,第一點是對的。

不是必須的,當然如果是正態分布,訓練效果會更好。

有少量的多重線性相關性是可以的,但是我們要盡量避免。

268.我們注意變量間的相關性。在相關矩陣中搜索相關系數時, 如果我們發現3對變量的相關系數是(Var1 和Var2, Var2和Var3, Var3和Var1)是-0.98, 0.45, 1.23 . 我們可以得出什么結論?(C)?

1.Var1和Var2是非常相關的?

2.因為Var和Var2是非常相關的, 我們可以去除其中一個?

3.Var3和Var1的1.23相關系數是不可能的

A. 1 and 3?

B. 1 and 2?

C. 1,2 and 3?

D. 1

答案:(C)

Var1和Var2的相關系數是負的,所以這是多重線性相關,我們可以考慮去除其中一個。

一 般的,如果相關系數大于0.7或者小于-0.7,是高相關的。

相關系數的范圍應該是[-1,1]。

269.如果在一個高度非線性并且復雜的一些變量中“一個樹模型可比一般的回歸模型效果更好”是(A)

A. 對的?

B. 錯的

答案:(A)

270.對于維度極低的特征,選擇線性還是非線性分類器?

答案:非線性分類器,低維空間可能很多特征都跑到一起了,導致線性不可分。?

1.如果特征的數量很大,跟樣本數量差不多,這時候選用LR或者是Linear Kernel的SVM。?

2.如果特征的數量比較小,樣本數量一般,不算大也不算小,選用SVM+Gaussian Kernel。?

3.如果特征的數量比較小,而樣本數量很多,需要手工添加一些特征變成第一種情況。

271.SVM、LR、決策樹的對比。

模型復雜度:SVM支持核函數,可處理線性非線性問題;LR模型簡單,訓練速度快,適合處理線性問題;決策樹容易過擬合,需要進行剪枝。?

損失函數:SVM hinge loss; LR L2正則化; Adaboost 指數損失。?

數據敏感度:SVM添加容忍度對outlier不敏感,只關心支持向量,且需要先做歸一化; LR對遠點敏感。?

數據量:數據量大就用LR,數據量小且特征少就用SVM非線性核。

272.什么是ill-condition病態問題?

訓練完的模型,測試樣本稍作修改就會得到差別很大的結果,就是病態問題,模型對未知數據的預測能力很差,即泛化誤差大。

273.簡述KNN最近鄰分類算法的過程?

1.計算訓練樣本和測試樣本中每個樣本點的距離(常見的距離度量有歐式距離,馬氏距離等);?

2.對上面所有的距離值進行排序;?

3.選前k個最小距離的樣本;?

4.根據這k個樣本的標簽進行投票,得到最后的分類類別;

274.常用的聚類劃分方式有哪些?列舉代表算法。

1.基于劃分的聚類:K-means,k-medoids,CLARANS。?

2.基于層次的聚類:AGNES(自底向上),DIANA(自上向下)。?

3.基于密度的聚類:DBSACN,OPTICS,BIRCH(CF-Tree),CURE。?

4.基于網格的方法:STING,WaveCluster。?

5.基于模型的聚類:EM,SOM,COBWEB。

275.下面對集成學習模型中的弱學習者描述錯誤的是?(C)

A. 他們經常不會過擬合?

B. 他們通常帶有高偏差,所以其并不能解決復雜學習問題?

C. 他們通常會過擬合

答案:(C)?

弱學習者是問題的特定部分。所以他們通常不會過擬合,這也就意味著弱學習者通常擁有低方差和高偏差。

276.下面哪個/些選項對 K 折交叉驗證的描述是正確的?(D)?

1.增大 K 將導致交叉驗證結果時需要更多的時間?

2.更大的 K 值相比于小 K 值將對交叉驗證結構有更高的信心?

3.如果 K=N,那么其稱為留一交叉驗證,其中 N 為驗證集中的樣本數量

A. 1 和 2?

B. 2 和 3?

C. 1 和 3?

D. 1、2 和 3

答案:(D)?

大 K 值意味著對過高估計真實預期誤差(訓練的折數將更接近于整個驗證集樣本數)擁有更小的偏差和更多的運行時間(并隨著越來越接近極限情況:留一交叉驗證)。我們同樣在選擇 K 值時需要考慮 K 折準確度和方差間的均衡。

277.最出名的降維算法是 PAC 和 t-SNE。將這兩個算法分別應用到數據「X」上,并得到數據集「X_projected_PCA」,「X_projected_tSNE」。下面哪一項對「X_projected_PCA」和「X_projected_tSNE」的描述是正確的?(B)

A. X_projected_PCA 在最近鄰空間能得到解釋?

B. X_projected_tSNE 在最近鄰空間能得到解釋?

C. 兩個都在最近鄰空間能得到解釋?

D. 兩個都不能在最近鄰空間得到解釋

答案:(B)?

t-SNE 算法考慮最近鄰點而減少數據維度。所以在使用 t-SNE 之后,所降的維可以在最近鄰空間得到解釋。但 PCA 不能。

278.給定三個變量 X,Y,Z。(X, Y)、(Y, Z) 和 (X, Z) 的 Pearson 相關性系數分別為 C1、C2 和 C3。現在 X 的所有值加 2(即 X+2),Y 的全部值減 2(即 Y-2),Z 保持不變。那么運算之后的 (X, Y)、(Y, Z) 和 (X, Z) 相關性系數分別為 D1、D2 和 D3。現在試問 D1、D2、D3 和 C1、C2、C3 之間的關系是什么?(E)

A. D1= C1, D2 < C2, D3 > C3?

B. D1 = C1, D2 > C2, D3 > C3?

C. D1 = C1, D2 > C2, D3 < C3?

D. D1 = C1, D2 < C2, D3 < C3?

E. D1 = C1, D2 = C2, D3 = C3

答案:(E)?

特征之間的相關性系數不會因為特征加或減去一個數而改變。

279.為了得到和 SVD 一樣的投射(projection),你需要在 PCA 中怎樣做?(A)

A. 將數據轉換成零均值?

B. 將數據轉換成零中位數?

C. 無法做到

答案:(A)?

當數據有一個 0 均值向量時,PCA 有與 SVD 一樣的投射,否則在使用 SVD 之前,你必須將數據均值歸 0。

280.假設我們有一個數據集,在一個深度為 6 的決策樹的幫助下,它可以使用 100% 的精確度被訓練。現在考慮一下兩點,并基于這兩點選擇正確的選項。(A)?

注意:所有其他超參數是相同的,所有其他因子不受影響。?

1.深度為 4 時將有高偏差和低方差?

2.深度為 4 時將有低偏差和低方差

A. 只有 1?

B. 只有 2?

C. 1 和 2?

D. 沒有一個

答案:(A)?

如果在這樣的數據中你擬合深度為 4 的決策樹,這意味著其更有可能與數據欠擬合。因此,在欠擬合的情況下,你將獲得高偏差和低方差。

281.在 k-均值算法中,以下哪個選項可用于獲得全局最小?(D)

A. 嘗試為不同的質心(centroid)初始化運行算法?

B. 調整迭代的次數?

C. 找到集群的最佳數量?

D. 以上所有

答案:(D)?

所有都可以用來調試以找到全局最小。

282.你正在使用帶有 L1 正則化的 logistic 回歸做二分類,其中 C 是正則化參數,w1 和 w2 是 x1 和 x2 的系數。當你把 C 值從 0 增加至非常大的值時,下面哪個選項是正確的?(B)

A. 第一個 w2 成了 0,接著 w1 也成了 0?

B. 第一個 w1 成了 0,接著 w2 也成了 0?

C. w1 和 w2 同時成了 0?

D. 即使在 C 成為大值之后,w1 和 w2 都不能成 0

答案:(B)?

通過觀察圖像我們發現,即使只使用 x2,我們也能高效執行分類。因此一開始 w1 將成 0;當正則化參數不斷增加時,w2 也會越來越接近 0。

283.假設你使用 log-loss 函數作為評估標準。下面這些選項,哪些是對作為評估標準的 log-loss 的正確解釋。(D)

A.如果一個分類器對不正確的分類很自信,log-loss 會嚴重的批評它。?

B.對一個特別的觀察而言,分類器為正確的類別分配非常小的概率,然后對 log-loss 的相應分布會非常大。?

C.log-loss 越低,模型越好?

D.以上都是

答案為:(D)

284.下面哪個選項中哪一項屬于確定性算法?(A)

A.PCA?

B.K-Means?

C. 以上都不是

答案:(A)?

確定性算法表明在不同運行中,算法輸出并不會改變。如果我們再一次運行算法,PCA 會得出相同的結果,而 K-Means 不會。

285.特征向量的歸一化方法有哪些?

線性函數轉換,表達式如下:?

y=x?MinValueMaxValue?MinValuey=x?MinValueMaxValue?MinValue

對數函數轉換,表達式如下:?

y=log10(x)y=log10(x)

反余切函數轉換 ,表達式如下:?

y=arctan(x)?2πy=arctan(x)?2π

減去均值,除以方差:?

y=x?meansvariancey=x?meansvariance

286.優化算法及其優缺點?

溫馨提示:在回答面試官的問題的時候,往往將問題往大的方面去回答,這樣不會陷于小的技術上死磕,最后很容易把自己嗑死了。?

1)隨機梯度下降?

優點:可以一定程度上解決局部最優解的問題?

缺點:收斂速度較慢?

2)批量梯度下降?

優點:容易陷入局部最優解?

缺點:收斂速度較快?

3)mini_batch梯度下降?

綜合隨機梯度下降和批量梯度下降的優缺點,提取的一個中和的方法。?

4)牛頓法?

牛頓法在迭代的時候,需要計算Hessian矩陣,當維度較高的時候,計算 Hessian矩陣比較困難。?

5)擬牛頓法?

擬牛頓法是為了改進牛頓法在迭代過程中,計算Hessian矩陣而提取的算法,它采用的方式是通過逼近Hessian的方式來進行求解。

287.RF與GBDT之間的區別與聯系?

1)相同點:都是由多棵樹組成,最終的結果都是由多棵樹一起決定。?

2)不同點:

組成隨機森林的樹可以分類樹也可以是回歸樹,而GBDT只由回歸樹組成

組成隨機森林的樹可以并行生成,而GBDT是串行生成

隨機森林的結果是多數表決表決的,而GBDT則是多棵樹累加之和

隨機森林對異常值不敏感,而GBDT對異常值比較敏感

隨機森林是減少模型的方差,而GBDT是減少模型的偏差

隨機森林不需要進行特征歸一化,而GBDT則需要進行特征歸一化

288.兩個變量的 Pearson 相關性系數為零,但這兩個變量的值同樣可以相關。(A)

A. 正確?

B. 錯誤

答案:(A)?

Pearson相關系數只能衡量線性相關性,但無法衡量非線性關系。如y=x^2,x和y有很強的非線性關系。

289.下面哪個/些超參數的增加可能會造成隨機森林數據過擬合?(B)

A. 樹的數量?

B. 樹的深度?

C. 學習速率

答案:(B)?

通常情況下,我們增加樹的深度有可能會造成模型過擬合。學習速率并不是隨機森林的超參數。增加樹的數量可能會造成欠擬合。

290.目標變量在訓練集上的 8 個實際值 [0,0,0,1,1,1,1,1],目標變量的熵是多少?(A)

A.??(58log(58)+38log(38))?(58log(58)+38log(38))?

B.?(58log(58)+38log(38))(58log(58)+38log(38))?

C.?(38log(58)+58log(38))(38log(58)+58log(38))?

D.?(58log(38)?38log(58))(58log(38)?38log(58))

答案:(A)

291.下面有關序列模式挖掘算法的描述,錯誤的是?(C)

A. AprioriAll算法和GSP算法都屬于Apriori類算法,都要產生大量的候選序列?

B. FreeSpan算法和PrefixSpan算法不生成大量的候選序列以及不需要反復掃描原數據庫?

C. 在時空的執行效率上,FreeSpan比PrefixSpan更優?

D. 和AprioriAll相比,GSP的執行效率比較高

@CS青雀,本題解析來源:?

機器學習:序列模式挖掘算法

292.下列哪個不屬于常用的文本分類的特征選擇算法?(D)?

A. 卡方檢驗值?

B. 互信息?

C. 信息增益?

D. 主成分分析

答案:(D)?

@CS青雀,本題解析來源:?

常采用特征選擇方法。常見的六種特征選擇方法:?

1)DF(Document Frequency) 文檔頻率?

DF:統計特征詞出現的文檔數量,用來衡量某個特征詞的重要性?

2)MI(Mutual Information) 互信息法?

互信息法用于衡量特征詞與文檔類別直接的信息量。?

如果某個特征詞的頻率很低,那么互信息得分就會很大,因此互信息法傾向”低頻”的特征詞。?

相對的詞頻很高的詞,得分就會變低,如果這詞攜帶了很高的信息量,互信息法就會變得低效。?

3)(Information Gain) 信息增益法?

通過某個特征詞的缺失與存在的兩種情況下,語料中前后信息的增加,衡量某個特征詞的重要性。?

4)CHI(Chi-square) 卡方檢驗法?

利用了統計學中的”假設檢驗”的基本思想:首先假設特征詞與類別直接是不相關的?

如果利用CHI分布計算出的檢驗值偏離閾值越大,那么更有信心否定原假設,接受原假設的備則假設:特征詞與類別有著很高的關聯度。?

5)WLLR(Weighted Log Likelihood Ration)加權對數似然?

6)WFO(Weighted Frequency and Odds)加權頻率和可能性

293.類域界面方程法中,不能求線性不可分情況下分類問題近似或精確解的方法是?(D)

A. 偽逆法-徑向基(RBF)神經網絡的訓練算法,就是解決線性不可分的情況?

B. 基于二次準則的H-K算法:最小均方差準則下求得權矢量,二次準則解決非線性問題?

C. 勢函數法-非線性?

D. 感知器算法-線性分類算法

答案:(D)

294.機器學習中做特征選擇時,可能用到的方法有?(E)

A.卡方?

B. 信息增益?

C. 平均互信息?

D. 期望交叉熵?

E. 以上都有

答案:(E)

295.下列方法中,不可以用于特征降維的方法包括(E)

A. 主成分分析PCA?

B. 線性判別分析LDA?

C. 深度學習SparseAutoEncoder?

D. 矩陣奇異值分解SVD?

E. 最小二乘法LeastSquares

答案:(E)?

特征降維方法主要有:PCA,LLE,Isomap?

SVD和PCA類似,也可以看成一種降維方法。?

LDA:線性判別分析,可用于降維。?

AutoEncoder:AutoEncoder的結構與神經網絡的隱含層相同,由輸入L1,輸出 L2組成,中間則是權重連接。Autoencoder通過L2得到輸入的重構L3,最小化L3與L1的差別 進行訓練得到權重。在這樣的權重參數下,得到的L2可以盡可能的保存L1的信息。?

Autoencoder的輸出L2的維度由輸出的神經元個數決定。當輸出維度大于L1時,則需要在訓練目標函數中加入sparse 懲罰項,避免L2直接復制L1(權重全為1)。所以稱為sparseAutoencoder( Andrew Ng提出的)。?

結論:SparseAutoencoder大多數情況下都是升維的,所以稱之為特征降維的方法不準確。

296.一般,K-NN最近鄰方法在( A)的情況下效果較好。

A.樣本較多但典型性不好?

B.樣本呈團狀分布?

C.樣本較少但典型性好?

D.樣本呈鏈狀分布

297.下列哪些方法可以用來對高維數據進行降維(A B C D E F)

A. LASSO?

B. 主成分分析法?

C. 聚類分析?

D. 小波分析法?

E. 線性判別法?

F. 拉普拉斯特征映射

解析:LASSO通過參數縮減達到降維的目的;?

PCA就不用說了;?

線性鑒別法即LDA通過找到一個空間使得類內距離最小類間距離最大所以可以看做是降維;?

小波分析有一些變換的操作降低其他干擾可以看做是降維;?

拉普拉斯請看機器學習降維算法四:Laplacian Eigenmaps 拉普拉斯特征映射。

298.以下描述錯誤的是(C)

A. SVM是這樣一個分類器,它尋找具有最小邊緣的超平面,因此它也經常被稱為最小邊緣分類器?

B. 在聚類分析當中,簇內的相似性越大,簇間的差別越大,聚類的效果就越差?

C. 在決策樹中,隨著樹中結點輸變得太大,即使模型的訓練誤差還在繼續降低,但是檢驗誤差開始增大,這是出現了模型擬合不足的原因?

D. 聚類分析可以看作是一種非監督的分類

299.以下說法中正確的是(C)

A. SVM對噪聲(如來自其他分部的噪聲樣本)具備魯棒性?

B. 在adaboost算法中,所有被分錯樣本的權重更新比例相同?

C. boosting和bagging都是組合多個分類器投票的方法,二者都是根據單個分類器的正確率確定其權重?

D. 給定n個數據點,如果其中一半用于訓練,一半用戶測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減少

300.關于正態分布,下列說法錯誤的是(C)

A. 正態分布具有集中性和對稱性?

B. 正態分布的均值和方差能夠決定正態分布的位置和形態?

C. 正態分布的偏度為0,峰度為1?

D. 標準正態分布的均值為0,方差為1

301.在以下不同的場景中,使用的分析方法不正確的有 (B)

A. 根據商家最近一年的經營及服務數據,用聚類算法判斷出天貓商家在各自主營類目下所屬的商家層級?

B. 根據商家近幾年的成交數據,用聚類算法擬合出用戶未來一個月可能的消費金額公式?

C. 用關聯規則算法分析出購買了汽車坐墊的買家,是否適合推薦汽車腳墊?

D. 根據用戶最近購買的商品信息,用決策樹算法識別出淘寶買家可能是男還是女

302.什么是梯度爆炸?

答案:誤差梯度是神經網絡訓練過程中計算的方向和數量,用于以正確的方向和合適的量更新網絡權重。?

在深層網絡或循環神經網絡中,誤差梯度可在更新中累積,變成非常大的梯度,然后導致網絡權重的大幅更新,并因此使網絡變得不穩定。在極端情況下,權重的值變得非常大,以至于溢出,導致 NaN 值。?

網絡層之間的梯度(值大于 1.0)重復相乘導致的指數級增長會產生梯度爆炸。

303.梯度爆炸會引發什么問題?

答案:在深度多層感知機網絡中,梯度爆炸會引起網絡不穩定,最好的結果是無法從訓練數據中學習,而最壞的結果是出現無法再更新的 NaN 權重值。

梯度爆炸導致學習模型無法從訓練數據中獲得更新(如低損失)。

模型不穩定,導致更新過程中的損失出現顯著變化。

訓練過程中,模型損失變成 NaN。

如果你發現這些問題,那么你需要仔細查看是否出現梯度爆炸問題。?

以下是一些稍微明顯一點的信號,有助于確認是否出現梯度爆炸問題。

訓練過程中模型梯度快速變大。

訓練過程中模型權重變成 NaN 值。

訓練過程中,每個節點和層的誤差梯度值持續超過 1.0。

305.如何修復梯度爆炸問題?

重新設計網絡模型?

在深度神經網絡中,梯度爆炸可以通過重新設計層數更少的網絡來解決。?

使用更小的批尺寸對網絡訓練也有好處。?

在循環神經網絡中,訓練過程中在更少的先前時間步上進行更新(沿時間的截斷反向傳播,truncated Backpropagation through time)可以緩解梯度爆炸問題。

使用 ReLU 激活函數?

在深度多層感知機神經網絡中,梯度爆炸的發生可能是因為激活函數,如之前很流行的 Sigmoid 和 Tanh 函數。?

使用 ReLU 激活函數可以減少梯度爆炸。采用 ReLU 激活函數是最適合隱藏層的新實踐。

使用長短期記憶網絡?

在循環神經網絡中,梯度爆炸的發生可能是因為某種網絡的訓練本身就存在不穩定性,如隨時間的反向傳播本質上將循環網絡轉換成深度多層感知機神經網絡。?

使用長短期記憶(LSTM)單元和相關的門類型神經元結構可以減少梯度爆炸問題。?

采用 LSTM 單元是適合循環神經網絡的序列預測的最新最好實踐。

使用梯度截斷(Gradient Clipping)?

在非常深且批尺寸較大的多層感知機網絡和輸入序列較長的 LSTM 中,仍然有可能出現梯度爆炸。如果梯度爆炸仍然出現,你可以在訓練過程中檢查和限制梯度的大小。這就是梯度截斷。?

處理梯度爆炸有一個簡單有效的解決方案:如果梯度超過閾值,就截斷它們。?

——《Neural Network Methods in Natural Language Processing》,2017.?

具體來說,檢查誤差梯度的值是否超過閾值,如果超過,則截斷梯度,將梯度設置為閾值。?

梯度截斷可以一定程度上緩解梯度爆炸問題(梯度截斷,即在執行梯度下降步驟之前將梯度設置為閾值)。?

——《深度學習》,2016.?

在 Keras 深度學習庫中,你可以在訓練之前設置優化器上的 clipnorm 或 clipvalue 參數,來使用梯度截斷。?

默認值為 clipnorm=1.0 、clipvalue=0.5。

使用權重正則化(Weight Regularization)?

如果梯度爆炸仍然存在,可以嘗試另一種方法,即檢查網絡權重的大小,并懲罰產生較大權重值的損失函數。該過程被稱為權重正則化,通常使用的是 L1 懲罰項(權重絕對值)或 L2 懲罰項(權重平方)。?

對循環權重使用 L1 或 L2 懲罰項有助于緩解梯度爆炸。?

——On the difficulty of training recurrent neural networks,2013.?

在 Keras 深度學習庫中,你可以通過在層上設置 kernel_regularizer 參數和使用 L1 或 L2 正則化項進行權重正則化。

306. LSTM神經網絡輸入輸出究竟是怎樣的?

答案:@YJango,本題解析來源:LSTM神經網絡輸入輸出究竟是怎樣的?

307.以下關于PMF(概率質量函數),PDF(概率密度函數),CDF(累積分布函數)描述錯誤的是?(A)

A. PDF描述的是連續型隨機變量在特定取值區間的概率?

B. CDF是PDF在特定區間上的積分?

C. PMF描述的是離散型隨機變量在特定取值點的概率?

D. 有一個分布的CDF函數H(x),則H(a)等于P(X<=a)

答案:(A)?

概率質量函數 (probability mass function,PMF)是離散隨機變量在各特定取值上的概率。?

概率密度函數(p robability density function,PDF )是對 連續隨機變量 定義的,本身不是概率,只有對連續隨機變量的取值進行積分后才是概率。?

累積分布函數(cumulative distribution function,CDF) 能完整描述一個實數隨機變量X的概率分布,是概率密度函數的積分。對于所有實數x 與pdf相對。

308.線性回歸的基本假設有哪些?(ABDE)

A. 隨機誤差項是一個期望值為0的隨機變量;?

B. 對于解釋變量的所有觀測值,隨機誤差項有相同的方差;?

C. 隨機誤差項彼此相關;?

D. 解釋變量是確定性變量不是隨機變量,與隨機誤差項之間相互獨立;?

E. 隨機誤差項服從正態分布

309.處理類別型特征時,事先不知道分類變量在測試集中的分布。要將 one-hot encoding(獨熱碼)應用到類別型特征中。那么在訓練集中將獨熱碼應用到分類變量可能要面臨的困難是什么?(A、B)

A. 分類變量所有的類別沒有全部出現在測試集中?

B. 類別的頻率分布在訓練集和測試集是不同的?

C. 訓練集和測試集通常會有一樣的分布

答案:(A、B )?

如果類別在測試集中出現,但沒有在訓練集中出現,獨熱碼將不能進行類別編碼,這是主要困難。如果訓練集和測試集的頻率分布不相同,我們需要多加小心。

310.假定你在神經網絡中的隱藏層中使用激活函數 X。在特定神經元給定任意輸入,你會得到輸出「-0.0001」。X 可能是以下哪一個激活函數?(B)

A. ReLU?

B. tanh?

C. SIGMOID?

D. 以上都不是

答案:(B)?

該激活函數可能是 tanh,因為該函數的取值范圍是 (-1,1)。

311.下面哪些對「類型 1(Type-1)」和「類型 2(Type-2)」錯誤的描述是正確的?(A、C)

A. 類型 1 通常稱之為假正類,類型 2 通常稱之為假負類。?

B. 類型 2 通常稱之為假正類,類型 1 通常稱之為假負類。?

C. 類型 1 錯誤通常在其是正確的情況下拒絕假設而出現。

答案:(A、C)?

在統計學假設測試中,I 類錯誤即錯誤地拒絕了正確的假設即假正類錯誤,II 類錯誤通常指錯誤地接受了錯誤的假設即假負類錯誤。

312.在下面的圖像中,哪一個是多元共線(multi-collinear)特征?(D)

A. 圖 1 中的特征?

B. 圖 2 中的特征?

C. 圖 3 中的特征?

D. 圖 1、2 中的特征?

E. 圖 2、3 中的特征?

F. 圖 1、3 中的特征

答案:(D)?

在圖 1 中,特征之間有高度正相關,圖 2 中特征有高度負相關。所以這兩個圖的特征是多元共線特征。

313.鑒別了多元共線特征。那么下一步可能的操作是什么?(B、C)

A. 移除兩個共線變量?

B. 不移除兩個變量,而是移除一個?

C. 移除相關變量可能會導致信息損失,可以使用帶罰項的回歸模型(如 ridge 或 lasso regression)。

答案:(B、C)?

因為移除兩個變量會損失一切信息,所以我們只能移除一個特征,或者也可以使用正則化算法(如 L1 和 L2)。

314.給線性回歸模型添加一個不重要的特征可能會造成?(A)

A. 增加 R-square?

B. 減少 R-square

答案:(A)?

在給特征空間添加了一個特征后,不論特征是重要還是不重要,R-square 通常會增加。

315.假定目標變量的類別非常不平衡,即主要類別占據了訓練數據的 99%。現在你的模型在測試集上表現為 99% 的準確度。那么下面哪一項表述是正確的?(A、C)

A. 準確度并不適合于衡量不平衡類別問題?

B. 準確度適合于衡量不平衡類別問題?

C. 精確率和召回率適合于衡量不平衡類別問題?

D. 精確率和召回率不適合于衡量不平衡類別問題

答案:(A、C)

316.什么是偏差與方差?

泛化誤差可以分解成偏差的平方加上方差加上噪聲。偏差度量了學習算法的期望預測和真實結果的偏離程度,刻畫了學習算法本身的擬合能力,方差度量了同樣大小的訓練集的變動所導致的學習性能的變化,刻畫了數據擾動所造成的影響,噪聲表達了當前任務上任何學習算法所能達到的期望泛化誤差下界,刻畫了問題本身的難度。偏差和方差一般稱為bias和variance,一般訓練程度越強,偏差越小,方差越大,泛化誤差一般在中間有一個最小值,如果偏差較大,方差較小,此時一般稱為欠擬合,而偏差較小,方差較大稱為過擬合。

317.解決Bias和Variance問題的方法是什么?

交叉驗證?

High Bias解決方案:Boosting、復雜模型(非線性模型、增加神經網絡中的層)、更多特征?

High Variance解決方案:agging、簡化模型,降維

318.采用 EM 算法求解的模型有哪些,為什么不用牛頓法或梯度下降法?

用EM算法求解的模型一般有GMM或者協同過濾,K-means其實也屬于EM。EM算法一定會收斂,但是可能收斂到局部最優。由于求和的項數將隨著隱變量的數目指數上升,會給梯度計算帶來麻煩。

319.XGBoost怎么給特征評分?

在訓練的過程中,通過Gini指數選擇分離點的特征,一個特征被選中的次數越多,那么該特征評分越高。

320.什么是OOB?隨機森林中OOB是如何計算的,它有什么優缺點?

Bagging方法中Bootstrap每次約有1313的樣本不會出現在Bootstrap所采集的樣本集合中,當然也就沒有參加決策樹的建立,把這1313的數據稱為袋外數據OOB(out of bag),它可以用于取代測試集誤差估計方法。

袋外數據(OOB)誤差的計算方法如下:?

對于已經生成的隨機森林,用袋外數據測試其性能,假設袋外數據總數為O,用這O個袋外數據作為輸入,帶進之前已經生成的隨機森林分類器,分類器會給出O個數據相應的分類,因為這O條數據的類型是已知的,則用正確的分類與隨機森林分類器的結果進行比較,統計隨機森林分類器分類錯誤的數目,設為X,則袋外數據誤差大小=XOXO;這已經經過證明是無偏估計的,所以在隨機森林算法中不需要再進行交叉驗證或者單獨的測試集來獲取測試集誤差的無偏估計。

總結

以上是生活随笔為你收集整理的机器学习算法总结的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

日韩动漫免费观看高清完整版在线观看 | 97网| 97色狠狠 | 天天色天天爱天天射综合 | 成人免费观看视频大全 | 久久久国产精品麻豆 | 国产精品igao视频网入口 | 日韩在线视频观看 | 91麻豆精品国产91久久久久久久久 | 天天做日日爱夜夜爽 | 韩日在线一区 | 久久夜色精品国产欧美乱 | 日韩无在线 | 精品国产1区2区3区 国产欧美精品在线观看 | 日韩欧美在线观看一区二区 | 精品uu| www久草| 国产视频导航 | 久久久精品视频成人 | 丰满少妇在线观看 | 成人黄色av免费在线观看 | 中文字幕精品一区二区三区电影 | 久久精品99国产精品酒店日本 | 最近2019好看的中文字幕免费 | 激情综合亚洲精品 | 成人宗合网| 狠狠天天 | 日韩免费播放 | 亚洲在线视频免费观看 | 91亚洲网站 | 2022中文字幕在线观看 | 奇米7777狠狠狠琪琪视频 | 91在线精品视频 | 亚洲国产精品日韩 | 香蕉视频最新网址 | 91人人射| 国产精品久久久久久久久久白浆 | 久草在线视频中文 | 中文字幕一区二区三区四区久久 | 亚洲一区二区精品 | 国产91在 | 欧美性视频网站 | 久久九九精品 | 98超碰人人 | 亚洲区另类春色综合小说校园片 | 天天色成人网 | 97超碰人人模人人人爽人人爱 | 中文av字幕在线观看 | 免费看十八岁美女 | 国产在线小视频 | 在线观看视频中文字幕 | 狠狠色综合欧美激情 | 丝袜少妇在线 | 亚洲三级av | 中文字幕在线观看日本 | 五月天综合色 | 蜜臀av性久久久久蜜臀aⅴ涩爱 | 五月婷婷在线视频 | 91成人在线网站 | 日韩免费电影在线观看 | 香蕉免费在线 | 久久理论视频 | 国产黄色一级片 | 国产亚洲视频系列 | 欧美一级片在线 | 亚洲va欧美va国产va黑人 | 久草在线观 | 在线免费高清一区二区三区 | 国产手机在线播放 | 久久综合色综合88 | 中文字幕在线观看网 | 在线播放一区 | 亚洲成人第一区 | 在线视频 区 | 韩国一区在线 | 亚洲欧美综合精品久久成人 | 久草在线精品观看 | 免费看特级毛片 | 超碰人人91 | 中文字幕乱在线伦视频中文字幕乱码在线 | 在线不卡中文字幕播放 | 看黄色91 | 99久久99热这里只有精品 | 国产精品igao视频网入口 | 成人啊 v| 国产精品视频久久久 | 国产精品久久久久久妇 | 欧美性生爱 | 色婷婷精品 | 菠萝菠萝在线精品视频 | 欧美日韩有码 | 操久 | av网站免费在线 | 在线观看91精品国产网站 | 亚洲天天摸日日摸天天欢 | 国产成人a v电影 | 久艹视频在线免费观看 | 黄色毛片一级 | 91亚洲精品国产 | 插插插色综合 | 婷婷精品在线 | av夜夜操| 国产精品美女久久久久久久久久久 | 四虎最新域名 | www.久久精品视频 | 特级黄录像视频 | 色婷婷综合在线 | 日韩黄色一级电影 | 久草精品视频在线观看 | 在线观看一区二区视频 | 国产经典 欧美精品 | 日韩精品 在线视频 | 色中文字幕在线观看 | 久久艹中文字幕 | 黄色在线观看免费网站 | 日韩午夜一级片 | 91黄色在线看 | 亚洲久草在线视频 | 超碰公开在线观看 | 精品一区电影国产 | 激情xxxx| 亚洲精品乱码久久久久久写真 | 97久久精品午夜一区二区 | 亚洲va在线va天堂va偷拍 | 亚洲 欧美 国产 va在线影院 | 久爱精品在线 | 亚洲精品黄网站 | 日韩av中文字幕在线免费观看 | 日韩精品在线看 | 一区二区在线影院 | 久久久久国产精品免费免费搜索 | 国产精品毛片一区视频播不卡 | 91精品国产高清 | 波多野结衣在线播放一区 | 一区二区三区精品在线视频 | 在线观看黄色大片 | 日韩动漫免费观看高清完整版在线观看 | 成年人免费在线观看 | 精品国产一区二区三区男人吃奶 | 亚州精品在线视频 | 91九色视频在线播放 | 久久男人视频 | 久久久观看| 日日夜夜添 | 亚洲精品白浆高清久久久久久 | 深夜免费福利网站 | 黄色毛片一级片 | 午夜影院一级片 | 国产又粗又长又硬免费视频 | 狠狠色丁香久久婷婷综合丁香 | 中文字幕国产一区 | 国产精品一区久久久久 | 国产成人99av超碰超爽 | 国产中文欧美日韩在线 | 亚洲国产激情 | 69av视频在线观看 | 白丝av在线 | 国产精品毛片久久久 | 成人黄色在线看 | 毛片激情永久免费 | 香蕉网在线播放 | 九九热有精品 | 婷婷射五月 | 国色天香第二季 | 欧美国产不卡 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 精品国产一区二区三区久久久久久 | 天天干天天玩天天操 | 色综合久久综合中文综合网 | 久久精品国产久精国产 | 国产福利电影网址 | 中文字幕 国产视频 | 国产精品成人久久久久久久 | 99热在线精品观看 | 亚洲高清在线视频 | 久久综合久久伊人 | 国产精品99久久99久久久二8 | 99理论片 | 色永久免费视频 | 日韩在线网址 | 在线观看a视频 | 国产视频一二区 | 欧美精品三级在线观看 | 一级电影免费在线观看 | 中文字幕人成乱码在线观看 | 日韩免费成人av | 国产精品福利午夜在线观看 | 99久久精品国产网站 | 精品无人国产偷自产在线 | av丁香花 | 亚洲 精品在线视频 | 啪啪动态视频 | 日韩二区在线 | 怡红院av久久久久久久 | 亚洲精品国偷拍自产在线观看 | 欧美一区二区三区不卡 | 精品国产91亚洲一区二区三区www | 玖玖999| 免费观看黄色12片一级视频 | 国产精品久久久久久久久久久免费看 | 不卡日韩av | 一级黄色在线视频 | 在线视频观看91 | 在线看91| 蜜臀av性久久久久蜜臀aⅴ涩爱 | av免费福利 | 国产高清视频免费观看 | 99视频这里只有 | 色综合天天综合 | 国产免费高清 | 久久精品久久综合 | 久久婷婷综合激情 | 色综合久久久久综合体 | 最近最新中文字幕视频 | 成人国产精品免费 | 日韩电影在线观看中文字幕 | 欧美成天堂网地址 | 懂色av一区二区在线播放 | 日韩在线电影一区二区 | 国产精品久久久久久久久久久久冷 | 激情欧美日韩一区二区 | 午夜黄网| 精品在线一区二区 | 亚洲精品麻豆 | 一级片视频在线 | av在线色| 99热日本| 久久经典国产视频 | 日韩在线观看中文字幕 | 天天操天天玩 | 久久久精品影视 | 欧美一级电影片 | 精品国产乱码久久久久久三级人 | 在线性视频日韩欧美 | www黄免费 | 九九色在线观看 | 九九久久久久久久久激情 | 狠狠的操狠狠的干 | 在线免费成人 | 青草草在线视频 | 国内精品亚洲 | 一区二区三区在线视频111 | 美女在线国产 | 久久亚洲影院 | 午夜少妇 | 国产传媒一区在线 | 91久久精| 国际精品久久久 | 韩国三级av在线 | 久久久激情视频 | 久久在线免费观看视频 | 国产免费小视频 | 中文字幕91视频 | 国产二区电影 | 成人cosplay福利网站 | 国产精品18久久久久vr手机版特色 | 丁香视频| 丁香婷婷深情五月亚洲 | 欧美一级片免费在线观看 | 国产中文字幕av | 亚洲午夜精品久久久久久久久久久久 | 国产免费观看av | 国产精品一区二区三区免费看 | 亚洲国产网站 | 国产一级视频在线免费观看 | 麻豆视频国产在线观看 | av解说在线| 九九免费在线观看 | 中文字幕在线看 | 国产成人精品久久久久 | 亚洲成人资源在线观看 | 在线91精品 | 精品毛片一区二区免费看 | 综合网在线视频 | 欧美日韩国产网站 | 国产亚洲免费的视频看 | 亚洲男男gaygay无套同网址 | 欧美一区二区在线免费看 | 成人免费在线播放视频 | 日韩av高清在线观看 | 怡红院av| 丁香花中文在线免费观看 | 国产区精品区 | 久久不卡国产精品一区二区 | 国产精品18久久久久久久网站 | 亚州免费视频 | 亚洲国产网站 | 日韩在线视频网站 | 国产福利一区二区在线 | 国产精品一区二区在线 | 日韩sese | 久久婷婷一区 | 免费在线黄色av | 久久天天综合网 | 一区二区视频免费在线观看 | 国产在线a免费观看 | 久久国产精品久久精品国产演员表 | 精品久久久久久国产91 | 91精品国产成人 | 国产黄色理论片 | 日日夜夜精品网站 | 久久久久中文字幕 | 亚洲jizzjizz日本少妇 | 亚洲精品一区二区久 | 日本一区二区三区视频在线播放 | 亚洲第一区精品 | 日韩在线观看网址 | 久综合网 | 免费麻豆网站 | 亚洲黄色av | 精品一区精品二区 | 成人a v视频| 国产精品成人在线 | 成人黄色资源 | 9ⅰ精品久久久久久久久中文字幕 | 婷婷在线视频 | 99热这里精品| 日本女人在线观看 | 亚洲午夜大片 | 中文字幕大全 | 日韩在线 | 午夜精品一区二区三区在线 | 狠狠地日 | 国产精品九九九 | 婷婷丁香久久五月婷婷 | 久久久久久综合 | 成人黄色免费观看 | 成人久久亚洲 | 激情网站 | 在线三级av| 97理论片 | 狠狠88综合久久久久综合网 | 国产成人一区二区三区在线观看 | 在线视频 91 | 高潮久久久久久久久 | 国产精品日韩欧美一区二区 | 欧美性色综合 | 97超级碰 | 丝袜少妇在线 | av片在线看 | 国产一区国产二区在线观看 | 99精品一区| 美女视频黄在线观看 | 97色噜噜 | av导航福利 | 国产一级电影 | 中文字幕国产 | 91免费视频黄 | av资源中文字幕 | 国产拍在线 | 亚洲电影在线看 | 成人理论在线观看 | 久久精品成人热国产成 | 国产黄色大片免费看 | 丁香在线观看完整电影视频 | 手机成人av在线 | 日韩免费观看一区二区 | 免费看的黄色录像 | 欧美视频www | 天堂网在线视频 | 91福利国产在线观看 | 四虎在线观看网址 | 精品免费观看 | 久久精品一区二区三区四区 | 欧美精品乱码久久久久 | 国产精品18久久久久久久 | 国产精品久久久久高潮 | 国产精品v欧美精品 | 国产精品久久久久久久久久久久久久 | 婷婷日| 狠狠五月婷婷 | 91最新在线| 中文在线免费一区三区 | 中文字幕日韩精品有码视频 | 日韩在线不卡视频 | 天堂av免费看 | 日韩免费 | 天堂av免费| 2021国产精品| 天天色天天操天天爽 | 亚洲黄色在线免费观看 | 久久天天躁狠狠躁亚洲综合公司 | 啪啪肉肉污av国网站 | 狠狠色伊人亚洲综合网站色 | 丁香婷婷自拍 | 好看的国产精品视频 | 人人揉人人揉人人揉人人揉97 | 色综合网 | 免费看黄视频 | 中文av不卡 | 色妞色视频一区二区三区四区 | www色网站 | 免费黄色在线网站 | 国产精品91一区 | 国产亚州精品视频 | 成人av网站在线播放 | 日韩在线高清 | 在线观看亚洲电影 | 2022国产精品视频 | 亚洲天堂网在线视频 | 成年人app网址 | 9在线观看免费高清完整版在线观看明 | 色综合亚洲精品激情狠狠 | 天天操天天射天天舔 | 国产亚洲精品美女久久 | 欧美三级在线播放 | 9在线观看免费高清完整版 玖玖爱免费视频 | 日日夜夜天天久久 | 狠狠色丁香久久婷婷综合丁香 | 玖玖爱国产在线 | 婷婷视频 | 国产91在线观看 | 中文字幕美女免费在线 | 欧美日本三级 | 天天射射天天 | 在线观看欧美成人 | 国产美女无遮挡永久免费 | 综合久久一本 | 久草亚洲视频 | 久热免费 | 久热av在线 | 狠狠搞,com | 亚洲精品国产日韩 | 亚洲精品视频在线观看免费视频 | 99c视频在线 | 91成人看片| 久久综合九色综合久久久精品综合 | 国产精品久久久久免费观看 | 亚洲在线精品 | 亚洲精品午夜视频 | 亚洲精品五月天 | 免费色网| 在线视频电影 | 国产精品电影一区 | 五月激情天| 国产精品久久久久免费观看 | 中文字幕有码在线 | 国产尤物一区二区三区 | 国产一二区视频 | 久久精品视频5 | 日本中文字幕视频 | 国产视频一区在线免费观看 | 久久精品www人人爽人人 | 黄色片视频在线观看 | 98超碰在线| 久久精品一| 日韩中文字幕国产 | 911精品美国片911久久久 | 日韩欧美99 | 欧美一级xxxx| 视频三区在线 | 成人免费视频播放 | 91精品办公室少妇高潮对白 | 国产精品精品国产色婷婷 | 91丨九色丨高潮丰满 | 久久精品屋 | 国产黄色免费 | 久久精彩免费视频 | 狠狠干成人 | 成人久久久久久久久久 | 久久私人影院 | 亚洲自拍偷拍色图 | 色姑娘综合 | 狠狠干,狠狠操 | 在线电影91 | 欧美日韩免费一区 | 免费三级影片 | 久久一区二区三区日韩 | 最新久久久 | 亚洲欧美国产精品 | 欧美精品久久久久久久久老牛影院 | 亚洲成色| 亚洲欧洲精品在线 | 日日爽视频 | 久久视频这里有久久精品视频11 | 亚洲a色 | 亚洲欧美日本A∨在线观看 青青河边草观看完整版高清 | 国产精品亚洲视频 | 天天做天天爽 | 9ⅰ精品久久久久久久久中文字幕 | 午夜精品久久久久久 | 黄色日视频 | 欧美成人理伦片 | 视频精品一区二区三区 | 久草在线视频在线 | 91传媒免费观看 | 久久久久美女 | av大片免费在线观看 | 国产香蕉视频在线观看 | 天天鲁一鲁摸一摸爽一爽 | 美女视频免费精品 | 中文字幕一区二区三区四区在线视频 | 亚州精品在线视频 | 久久这里只有精品首页 | 国产精品免费大片视频 | 在线观看av麻豆 | 揉bbb玩bbb少妇bbb | 久久开心激情 | 亚洲丁香久久久 | 天天躁天天躁天天躁婷 | 成人精品一区二区三区中文字幕 | 97成人在线视频 | 日本不卡123区 | 国产精品美女免费视频 | 精品国产一区二区三区久久久蜜月 | 久久96国产精品久久99漫画 | 国内精品久久久久 | 久久影视中文字幕 | 波多野结衣在线视频一区 | 久久99精品久久久久久秒播蜜臀 | 日韩在线免费看 | 婷婷av网| 天天操人人干 | 天天操天天干天天爱 | av电影在线不卡 | 成人在线网站观看 | 在线日韩一区 | 99爱精品在线 | 不卡视频一区二区三区 | 国产高清av免费在线观看 | 在线观看一级视频 | 日本精品视频免费 | 亚洲黄色一级大片 | 亚洲国产精品影院 | 99精品在线观看 | 在线观看www视频 | 国产不卡视频在线播放 | 91精品小视频| 五月婷网| 久艹视频在线免费观看 | 一区二区三区精品久久久 | 337p日本欧洲亚洲大胆裸体艺术 | 亚洲国产精品va在线看黑人动漫 | 国产精品国产三级国产aⅴ入口 | 欧美精品一区二区免费 | 蜜臀av性久久久久蜜臀aⅴ涩爱 | 日韩高清一区二区 | 日韩中文字幕在线不卡 | 日韩av电影网站在线观看 | 91人人揉日日捏人人看 | 丁香 久久 综合 | 狠狠色丁香 | 日日夜夜天天久久 | 91视频午夜 | 亚洲久草视频 | 欧美极品少妇xxxx | 亚洲精品午夜久久久久久久久久久 | 免费网址在线播放 | 婷婷成人亚洲综合国产xv88 | 色欧美视频 | 精品国产自 | 五月天激情婷婷 | 日韩精品一区在线播放 | 久久电影国产免费久久电影 | 成人免费毛片aaaaaa片 | 人人澡超碰碰 | 日韩免费在线看 | 亚洲精品美女久久 | 成人在线观看免费视频 | 91精品啪| 国产精品久久久久久久久毛片 | 久在线观看 | 射综合网 | av一级免费 | 亚洲成人黄 | 五月婷av | 久操免费视频 | 美女视频是黄的免费观看 | 成人啊 v| 亚洲精品一区二区三区新线路 | 国产日韩欧美精品在线观看 | 国产一区在线免费观看视频 | 亚洲精品理论 | 五月婷婷av| 日本午夜免费福利视频 | 欧美性色xo影院 | www久久com| 中文字幕av全部资源www中文字幕在线观看 | 国产一级片一区二区三区 | 日韩精品久久久久久 | 免费看黄视频 | 日韩久久激情 | 久草在线观 | 国产又粗又长又硬免费视频 | 天天看天天操 | 中文字幕av免费在线观看 | 欧美日韩中文视频 | 麻豆视频国产精品 | 97超碰在| 欧美日韩三级在线观看 | 日韩精品欧美视频 | 国产在线资源 | 久久一区二区免费视频 | 手机色在线 | 99久高清在线观看视频99精品热在线观看视频 | 成人一区二区三区在线观看 | 热久久国产 | 手机av看片 | 91字幕 | 在线观看中文字幕dvd播放 | 国产女教师精品久久av | 永久黄网站色视频免费观看w | 日本久久中文字幕 | 日韩在线播放视频 | 午夜精品99久久免费 | 亚洲精品在线网站 | 久久不射电影院 | 日韩理论在线播放 | 日本bbbb摸bbbb | 国产免费黄视频在线观看 | 欧美日韩国产综合一区二区 | 久久久精品福利视频 | 国产精品扒开做爽爽的视频 | 成人免费视频视频在线观看 免费 | 色婷婷激情四射 | 色黄www小说 | 91尤物国产尤物福利在线播放 | 亚洲精品9 | 亚州视频在线 | 99久久99久久免费精品蜜臀 | 国产乱对白刺激视频不卡 | 超碰成人免费电影 | 中文字幕韩在线第一页 | 国产又粗又硬又爽视频 | 看片一区二区三区 | 亚洲精品视频在线观看网站 | 日韩在线免费观看视频 | 超碰av免费 | 日本精品一 | 免费成人黄色片 | 最近中文字幕视频完整版 | 亚洲国产成人久久综合 | 欧日韩在线 | 亚州视频在线 | 久久精品一二三区 | 欧美日本高清视频 | 一级黄色在线免费观看 | 免费a视频在线观看 | 国产亚洲va综合人人澡精品 | 少妇精69xxtheporn | 夜夜躁狠狠躁日日躁视频黑人 | 久草在线最新免费 | 91自拍91 | 99视频在线精品 | 久久深夜福利免费观看 | 中文字幕在线观看第三页 | 久久精品79国产精品 | 精品视频在线免费 | 国产视频网站在线观看 | 亚洲高清不卡av | 国产亚洲精品成人av久久影院 | 欧美精品一区二区免费 | 国产精品96久久久久久吹潮 | 丁香色婷 | 丁香五月亚洲综合在线 | 欧美一区中文字幕 | 免费网站污 | 五月婷婷另类国产 | 一级黄视频 | 亚洲最大免费成人网 | 国产精品资源网 | 91视频3p | 国产午夜影院 | 久久久久国产一区二区 | 91看片黄色| 成人av在线影视 | 国产偷在线 | 国产成人精品免高潮在线观看 | 91精品国产三级a在线观看 | 久草av在线播放 | 一区二区视频电影在线观看 | 亚洲国内精品在线 | 久久精品99久久久久久2456 | 欧美在线1 | 国产亚州av | 久草在线电影网 | 日韩激情第一页 | av超碰在线观看 | 美女视频黄网站 | 一级成人免费视频 | 国产精品av在线免费观看 | 日韩在线短视频 | 欧美不卡视频在线 | 免费高清在线视频一区· | 99久久久久国产精品免费 | 亚洲午夜久久久久久久久 | 日韩欧美一区二区三区视频 | 男女啪啪免费网站 | www91在线观看 | 中文字幕av全部资源www中文字幕在线观看 | 亚洲精品小视频 | 欧美91精品国产自产 | 国产一区在线视频 | japanesexxxhd奶水 国产一区二区在线免费观看 | 国产资源网站 | 欧美日韩国产一区二区三区在线观看 | 四虎国产永久在线精品 | 在线看片成人 | 精品一区av | 亚洲精品中文字幕在线观看 | 特级黄色一级 | 91资源在线 | 91精品伦理| 六月丁香社区 | 天天操 夜夜操 | 国产片免费在线观看视频 | 欧美最猛性xxxxx免费 | 中文国产成人精品久久一 | 日韩资源在线观看 | 亚洲免费在线视频 | 99久热在线精品视频成人一区 | 久久99国产综合精品免费 | 国产人成在线视频 | 成人免费看视频 | 亚洲精品99久久久久久 | 免费日韩一区二区三区 | 91亚洲精品在线 | 五月天六月婷 | 精品久久久久久久久亚洲 | 伊人六月 | 天干啦夜天干天干在线线 | 91精品国产自产在线观看 | 欧美综合国产 | 91精品国产99久久久久久红楼 | 久久免费国产精品 | 欧美日韩久久一区 | 伊人手机在线 | sesese图片| 亚洲中字幕 | 99久久婷婷国产一区二区三区 | 免费看的黄色 | 91精品国产麻豆 | 国产性xxxx | 日韩特黄av | 97在线视频免费观看 | 亚洲闷骚少妇在线观看网站 | 亚洲精品国偷拍自产在线观看 | 一区二区三区国产精品 | 日韩欧美视频在线免费观看 | 欧美性爽爽 | 九九热免费视频在线观看 | www.狠狠操.com | 99热这里精品 | 国产精品女同一区二区三区久久夜 | 日日夜夜添 | 日b视频国产| 国产老太婆免费交性大片 | 欧美日本不卡高清 | 久久久久久激情 | 在线看小早川怜子av | 国产精品成人av电影 | 中文字幕视频三区 | 亚洲a资源 | 国产人成一区二区三区影院 | 国产人成一区二区三区影院 | 国产精品igao视频网入口 | 国产日本三级 | 国产福利一区二区三区在线观看 | 成人教育av| 亚洲三级在线 | 国产精品永久久久久久久www | 亚洲精品国 | 国产91九色视频 | 国产精品麻豆三级一区视频 | 久久亚洲精品电影 | 久久久91精品国产一区二区三区 | 99久久精品国产一区二区成人 | 99视频网址| 日本精品午夜 | 四虎www| 色综合久久精品 | 四虎影院在线观看av | 超碰人人超碰 | 国产一级不卡视频 | 国产精品青草综合久久久久99 | 国产精品一区二区你懂的 | 看av免费| 天天夜夜亚洲 | 最近免费中文字幕mv在线视频3 | 国产日韩精品久久 | 国产成人精品日本亚洲999 | 国产一区二区在线观看视频 | 狠狠综合久久av | 久爱综合| 99热在线观看 | 成人午夜精品 | 超碰公开在线 | 国产福利不卡视频 | 在线国产片 | 97视频精品 | 国产高清精品在线观看 | 久久精品国产一区 | 国产高清日韩欧美 | 在线观看成人一级片 | 国产一级片一区二区三区 | 色姑娘综合 | 激情电影在线观看 | 激情综合五月天 | 成人在线一区二区三区 | 伊人网综合在线观看 | 国产精久久 | 国产成人久久av977小说 | 国产91在线观 | 国产精品伦一区二区三区视频 | 欧美激情第八页 | 97电影院网| 亚洲黄色网络 | 中文字幕 国产视频 | 国产欧美精品在线观看 | 亚洲色综合 | 6699私人影院 | 日韩在线视频免费看 | 中文字幕黄色av | www.香蕉视频在线观看 | 人人舔人人插 | 国产精品久久久久久久久久免费看 | 在线观看一区二区视频 | 日韩黄色在线观看 | 国产精品久久电影观看 | 中文字幕有码在线播放 | 国产尤物一区二区三区 | 亚洲欧洲精品一区二区精品久久久 | 亚洲午夜精 | 在线看一区| 夜夜操狠狠操 | av黄色免费在线观看 | 精品视频资源站 | 这里只有精品视频在线观看 | 在线观看久久久久久 | 天天插天天狠天天透 | 亚洲精品国产综合99久久夜夜嗨 | 久久天堂亚洲 | 91av在线播放视频 | 亚洲高清视频在线 | 黄色三级免费片 | 日韩欧美一区二区在线观看 | 欧美一区二区伦理片 | 国产视频一区二区在线观看 | 激情电影在线观看 | 91在线免费观看国产 | 亚洲尺码电影av久久 | 国产尤物在线观看 | 中文字幕高清有码 | 一级电影免费在线观看 | 激情视频一区二区三区 | 天天操天| 99久久影院 | 免费人做人爱www的视 | 日本精品一 | 在线免费av观看 | 亚洲色图22p | 国产精品久久伊人 | 色婷婷av一区二 | 欧美精品久久久久久久亚洲调教 | 91av短视频 | 欧美日韩国产精品久久 | 色94色欧美 | 人人插人人爱 | 久久久久国产精品厨房 | 91九色视频观看 | 久久久国产精品电影 | 中文字幕日韩av | 日韩在线一二三区 | www.夜夜爽| 欧美精品在线观看免费 | 国产黄色精品在线 | 在线观看深夜视频 | 日韩成人精品 | 国产午夜精品理论片在线 | 天天综合网天天 | 欧美亚洲久久 | 91麻豆看国产在线紧急地址 | 九九九在线 | 久草网站在线 | 狠狠躁日日躁狂躁夜夜躁av | 国产婷婷视频在线 | 国产自偷自拍 | 国产精品一区二区久久久 | 免费观看高清 | 久草爱视频 | 日韩欧美视频免费看 | 日韩特黄一级欧美毛片特黄 | 一级a毛片高清视频 | 在线观看中文字幕第一页 | 婷婷在线资源 | 久久久亚洲精华液 | 免费成人av在线看 | 五月婷婷久 | 免费福利片2019潦草影视午夜 | 国产精品不卡在线播放 | 91精品国产91久久久久久三级 | 色小说在线 | 99精品在线观看视频 | 国产精品永久免费 | 久久噜噜少妇网站 | 国产手机免费视频 | 午夜黄色| 成人黄色免费观看 | 在线看片视频 | 黄色a大片 | 精品国产自在精品国产精野外直播 | 黄色的视频网站 | 国产婷婷| 日韩精品一区二区三区中文字幕 | 日韩欧美在线高清 | 超碰97在线看 | 日韩视频在线播放 | 久草在线欧美 | 99热在线免费观看 | 精品国产福利在线 | 日产乱码一二三区别免费 | 免费黄色在线网站 | 国产小视频在线免费观看视频 | 最近2019中文免费高清视频观看www99 | 激情在线网址 | 黄色一级影院 | 日韩电影在线观看一区二区 | 精品一区二区免费 | 999视频在线播放 | 九色视频网 | 97偷拍视频| av电影免费在线 | 久久免费视频精品 | 成人av资源站 | 国产资源免费在线观看 | 日韩av片免费在线观看 | 天天综合网久久综合网 | 日韩成人免费在线电影 | 日韩精品在线播放 | 久草色在线观看 | 综合网在线视频 | 激情 一区二区 | 99在线看 | 国产第一页福利影院 | 国产剧情在线一区 | av一区二区在线观看中文字幕 | 国产69精品久久99不卡的观看体验 | 婷婷伊人五月 | 日本字幕网 | 国产999视频| 伊人激情网 | 日日操狠狠干 | 91麻豆精品一区二区三区 | 欧美性精品 | 五月天高清欧美mv | 91av免费看 | 99久久精品久久久久久动态片 | 激情在线网站 | 成人av一区二区在线观看 | 亚洲精品视频网站在线观看 | av在线精品 | 中午字幕在线观看 | 国产亚洲精品久久19p | 99久久国产免费看 | 婷婷激情小说网 | 免费看一级 | 成人精品在线 | 成人中文字幕+乱码+中文字幕 | 久久久久久久看片 | 久久人人爽人人片av | 色婷婷狠狠操 | 国产自产高清不卡 | 国产精品美女久久久久久 | 亚洲激情校园春色 | 中文字幕高清免费日韩视频在线 | 国产亚洲免费的视频看 | 在线91视频 | 亚洲精品456在线播放第一页 | 国产黄a三级三级三级三级三级 | 欧美精品久久久久久久免费 | 国产精品亚洲综合久久 | 国产精品激情 | 亚洲精品免费看 | 日韩午夜剧场 | 久久综合加勒比 | 日本黄色片一区二区 | 亚洲激情国产精品 | 久久不见久久见免费影院 | 国产精品 日韩 欧美 | 成人观看视频 | 国产精品a久久久久 | 免费观看国产视频 | 免费成人av在线 | 97精品超碰一区二区三区 | 亚洲欧美日韩不卡 | 丁香婷婷激情国产高清秒播 | 成人黄色小说在线观看 | 国产成人三级在线 | 亚洲午夜精品久久久久久久久 | 草久视频在线观看 | 久久99操| 人人看人人| 91九色精品女同系列 | 97在线视频免费播放 | av中文在线播放 | 在线观看黄网 | 黄色av观看| 久草在线免费资源 |