机器学习 基本概念,常用经典模型
1. 機器學(xué)習(xí) 明白一些基本概念
什么是機器學(xué)習(xí)
研究如何通過計算的手段,利用經(jīng)驗來改善系統(tǒng)自身的性能
通俗來講,讓代碼學(xué)著干活
特征:自變量
標(biāo)簽:因變量
學(xué)習(xí)的種類
有監(jiān)督學(xué)習(xí):提供標(biāo)簽,分類、回歸
無監(jiān)督學(xué)習(xí):無標(biāo)簽,聚類
增強學(xué)習(xí):也稱強化學(xué)習(xí),馬爾科夫決策過程(Markov Decision Processes,MDP)
主動學(xué)習(xí):邊學(xué)習(xí)邊標(biāo)注
遷移學(xué)習(xí):從一個域(Domain)遷移(Transfer)到另一個域
集成學(xué)習(xí):Ensemble,三個臭皮匠賽個諸葛亮,Boosting和Bagging
兩大痛點
維度災(zāi)難:數(shù)據(jù)量和特征數(shù)
過擬合:模型泛化能力
學(xué)習(xí)的流程
預(yù)處理:數(shù)據(jù)重塑、缺失值處理(補全、統(tǒng)計為缺失特征)
特征工程:特征沒做好,參數(shù)調(diào)到老。在已有的特征上生成新的特征,數(shù)值、類別
特征選擇、降維:基于MIC、Pearson相關(guān)系數(shù)、正則化方法、模型,PCA、tSNE
訓(xùn)練模型、調(diào)參:單模型,多模型融合,集成
評估模型:正確率(Acurracy)、準(zhǔn)確值(Pecision)、召回值(Recall)、F值、AUC
代碼實現(xiàn)
你需要的都在這里:http://scikit-learn.org/
用機器學(xué)習(xí)來賭香港賽馬
https://www.zhihu.com/question/35131866/answer/152880313
https://www.kaggle.com/lantanacamara/hong-kong-horse-racing
2. 機器學(xué)習(xí) 常用經(jīng)典模型及其實現(xiàn)
常用經(jīng)典模型
1.線性回歸:有監(jiān)督回歸,y=WX+b,X為m維向量,y、b為n維向量,W為n*m維矩陣
2.Logistic回歸:有監(jiān)督回歸,y=logit(WX+b)
3.貝葉斯:有監(jiān)督分類,最可能的分類是概率最大的分類
4.k近鄰:有監(jiān)督分類,kNN,距離的定義
5.決策樹:有監(jiān)督分類,樹形判斷分支,非線形邊界,+集成=隨機森林
6.支持向量機:有監(jiān)督分類,將原空間變換到另一空間,在新空間里尋找margin最大的分界面(hyperplane)
7.k-means:無監(jiān)督聚類,初始化中心,不斷迭代,EM算法
8.神經(jīng)網(wǎng)絡(luò):有監(jiān)督和無監(jiān)督都有,詳情參見下一章,深度學(xué)習(xí)
實現(xiàn)之前的準(zhǔn)備
安裝scikit-learn:http://scikit-learn.org/
sklearn、numpy
>>> from sklearn import svm
>>> X = [[0, 0], [1, 1]]
>>> y = [0, 1]
>>> clf = svm.SVC()
>>> clf.fit(X, y)
SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0,
decision_function_shape=None, degree=3, gamma='auto', kernel='rbf',
max_iter=-1, probability=False, random_state=None, shrinking=True,
tol=0.001, verbose=False)
>>> clf.predict([[2., 2.]])
array([1])
一個簡單的例子:http://scikit-learn.org/stable/auto_examples/svm/plot_iris.html#sphx-glr-auto-examples-svm-plot-iris-py
轉(zhuǎn)載于:https://www.cnblogs.com/csj007523/p/7804144.html
總結(jié)
以上是生活随笔為你收集整理的机器学习 基本概念,常用经典模型的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 安卓xposed框架和琢石模拟器安装激活
- 下一篇: 摇钱树