【机器学习】算法面试知识点整理(持续更新中~)
1、監督學習(SupervisedLearning):有類別標簽的學習,基于訓練樣本的輸入、輸出訓練得到最優模型,再使用該模型預測新輸入的輸出;
代表算法:決策樹、樸素貝葉斯、邏輯回歸、KNN、SVM、神經網絡、隨機森林、AdaBoost、遺傳算法;
2、半監督學習(Semi-supervisedLearning):同時使用大量的未標記數據和標記數據,進行模式識別工作;
代表算法:self-training(自訓練算法)、generative models生成模型、SVMs半監督支持向量機、graph-basedmethods圖論方法、?multiviewlearing多視角算法等;
3、無監督學習(UnsupervisedLearning):無類別標簽的學習,只給定樣本的輸入,自動從中尋找潛在的類別規則;
代表算法:主成分分析方法PCA等,等距映射方法、局部線性嵌入方法、拉普拉斯特征映射方法、黑塞局部線性嵌入方法、局部切空間排列方法等;
4、HOG特征:全稱Histogram of Oriented Gradient(方向梯度直方圖),由圖像的局部區域梯度方向直方圖構成特征;
5、LBP特征:全稱Local Binary Pattern(局部二值模式),通過比較中心與鄰域像素灰度值構成圖像局部紋理特征;
6、Haar特征:描述圖像的灰度變化,由各模塊的像素差值構成特征;
7、核函數(Kernels):從低維空間到高維空間的映射,把低維空間中線性不可分的兩類點變成線性可分的;
8、SVM:全稱Support Vector Machine(支持向量機),在特征空間上找到最佳的超平面使訓練集正負樣本的間隔最大;是解決二分類問題的有監督學習算法,引入核方法后也可用來解決非線性問題;
9、Adaboost:全稱Adaptive Boosting(自適應增強),對同一個訓練集訓練不同的弱分類器,把這些弱分類器集合起來,構成一個更強的強分類器;
10、決策樹算法(Decision Tree):處理訓練數據,構建決策樹模型,再對新數據進行分類;
11、隨機森林算法(Random Forest):使用基本單元(決策樹),通過集成學習將多棵樹集成;
12、樸素貝葉斯(Naive Bayes):根據事件的先驗知識描述事件的概率,對聯合概率建模來獲得目標概率值;
13、神經網絡(Neural Networks):模仿動物神經網絡行為特征,將許多個單一“神經元”聯結在一起,通過調整內部大量節點之間相互連接的關系,進行分布式并行信息處理。
總結
以上是生活随笔為你收集整理的【机器学习】算法面试知识点整理(持续更新中~)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Window7新建文件夹后刷新才显示的解
- 下一篇: 【VS2005】error LNK200