机器学习003-Kernel
生活随笔
收集整理的這篇文章主要介紹了
机器学习003-Kernel
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
參考: 李航《統計學習方法》
? 【定義】設X是輸入空間,又設F為特征空間,如果存在一個從X到F的映射
\[ \phi(x):X→F \]
使得所有的x,z∈X,函數K(x,z)滿足條件
\[ K(x,z)=\phi(x)·\phi(z) \]
則稱K(x,z)為核函數,Φ(x)為映射函數,· 為內積運算。
? 核函數的想法是,在學習與預測中只定義核函數K(x,z),而不顯式地定義Φ。直接計算K(x,z)比較容易,而通過Φ(x),Φ(z)計算K(x,z)并不容易。
? 【注意】特征空間F一般是高維的,對于給定的K(x,z),F和Φ的取法并不唯一。
常用的核函數:
多項式核函數(polynomial kernel function)
\[ K(x,z)=(x·z+1)^p \]
高斯核函數(Guussian kernel function)
\[ K(x,z)=exp(-\frac{||x-z||^2}{2\sigma^2}) \]
| 【個人理解】這些常用的核函數,我尚未去驗證,但姑且這樣理解:X->F的路徑不唯一(F也可以不同),即Φ可以有千變萬化的選擇,那我們只要可以從核函數推導出其中一種Φ即可驗證該核函數是合理的。而為什么這些核函數比較常用,即這些核函數的特點和優點在哪里,我暫時不去研討。 |
可了解一下《統計學習方法》的“正定核”。
核函數的應用:
見文章《PCA與LLE的理解》中的kernel PCA
見文章《LDA的理解》中的kernel LDA
轉載于:https://www.cnblogs.com/zzzack/p/9749638.html
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的机器学习003-Kernel的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 质量,是企业的生命
- 下一篇: Docker系列(一):容器监控工具We