大数据算法岗位面试题
神經網絡
1、簡述反向傳播原理 (阿里),面試官微信發了一道反向傳播的算數題,要求算出結果并解釋 (要能計算的)?
2、sigmoid和ReLU的優劣?
3、梯度消失問題和損失函數有關嗎??
4、Dropout為什么能防止過擬合??
5、Batch Normalization有什么好處??
6、講講Adam優化算法
7、能想到哪些衡量兩個向量之間距離的方法(L1, L2, cosine,或者深度學習里訓練MLP作為距離函數,注意normalization)?
8、衡量兩個字符串之間距離的方法?(樓主答了edit distance和Jaccard distance,不知道還有沒有其他常用的)?
9、LSTM相比普通RNN有哪些優勢?為什么能解決梯度消失??
10、LSTM和GRU用哪個好?(樓主表示兩個之間沒有絕對的優劣..面試官表示認同,說實際應用里確實會因為計算速度而選擇GRU)?
11、梯度消失梯度爆炸怎么解決?
12、RNN容易梯度消失,怎么解決(LSTM)?
13、LSTM跟RNN有啥區別?
14、KMeans講講,KMeans有什么缺點,K怎么確定?
15、卷積層和池化層有什么區別?
16、防止過擬合有哪些方法?
17、闡述SVM原理,為何使用對偶性以及對偶性原理,SVM如何解決多分類,SVM與LR對比。?
18、闡述GBDT、xgboost、lightGBM的異同,xgb的優勢,lgb的優勢,二者的并行如何實現。?
19、闡述word2vec的原理,為何使用哈弗曼樹,如何構建哈夫曼,負采樣的原理。?
20、對于一個取值較多的類別變量在不能進行onehot的情況下如何使用?
1、給定一個query和一個doc,能想到哪些衡量相關性的方法(答了bag of words, LSTM encode, CNN encode, bi-directional attention等等);面試官最后提到一種match-CNN說樓主可以面試完研究一下
3、LSTM、GRU、RNN的原理以及差別
4、梯度消失與梯度爆炸的產生原因,如何避免?
5、CNN的原理,卷積為何有效?1*1卷積的作用?
6、HMM與CRF的原理,差別,是全局最優還是局部最優以及為什么。
7、講一下其中的LR、SVM,以及區別和聯系
?
獲取更多相關大數據技術資料可以掃描下方微信二維碼:
總結
以上是生活随笔為你收集整理的大数据算法岗位面试题的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: springboot1——第一个spri
- 下一篇: JVM学习01总体概述