LDA算法
提示:文章寫完后,目錄可以自動生成,如何生成可參考右邊的幫助文檔
文章目錄
- 前言
- 一、LDA是什么?
- 二、公式推導
- 三、PCA和LDA的區別
- 總結
前言
線性判別分析(LDA)是一種有監督學習算法,同時經常被用來對數據進行降維。 它是1936年發明的,有些資料上也稱之為Fisher LDA。LDA是目前機器學習、數據挖掘鄰域中經典且熱門的一種算法。提示:以下是本篇文章正文內容,下面案例可供參考
一、LDA是什么?
線性判別式分析,又稱為Fisher線性判別。
找一個投影方向,使得把原來的類別投影到新的方向上,變成新的樣本點,還能把它區分開。
準則:最大化類間均值,最小化類內方差
方差:方差小則樣本不分散,更緊密。
不同類別間距離要大
二、公式推導
麻煩大家轉一下手機,嘻嘻.
三、PCA和LDA的區別
左圖:PCA最小重構誤差,使得投影后的值和原來的值盡量接近,屬于非監督學習。
右圖:LDA最大化類間距離,最小化類內距離,使得投影后的不同類別的樣本分的更開,屬于監督學習。
總結
提示:這里對文章進行總結:
至此,我們從最大化類間距離、最小化類內距離的思想出發,推導出了LDA的優化目標以及求解方法。LDA相比PCA更善于對有類別信息的數據進行降維處理,但它對數據的分布做了一些很強的假設,例如,每個類數據都是高斯分布、各個類的協方差相等。盡管這些假設在實際中并不一定完全滿足,但LDA已被證明是非常有效的一種降維方法。主要是因為線性模型對于噪聲的魯棒性比較好,但由于模型簡單,表達能力有一定局限性,我們可以通過引入核函數擴展LDA方法已處理分布較為復雜的數據。
總結
- 上一篇: Matlab电气课程设计,电气工程课程设
- 下一篇: JDK 下载与安装