PCA与LDA两种降维方法原理的简要对比
生活随笔
收集整理的這篇文章主要介紹了
PCA与LDA两种降维方法原理的简要对比
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
1、PCA(主成分分析)
無監(jiān)督的,選擇的是投影后數(shù)據(jù)方差最大的方向。因此PCA假設(shè)方差越大,代表的信息量越大,使用主成分來表示原始數(shù)據(jù)可以去除冗余的維度,達(dá)到降維的目的。
2、LDA(線性判別分析)
有監(jiān)督的,選擇的是投影后類內(nèi)方差小、類間方差大的方向。用到了類別標(biāo)簽信息,為了找到數(shù)據(jù)中具有判別性的維度,使原始數(shù)據(jù)在這些方向上投影后,不同類別盡可能區(qū)分開來。
?
例如:語音設(shè)別中,如果想從音頻中提取某人的語音信號,可以使用PCA進(jìn)行降維,來過濾掉一些固定頻率(方差相對較小)的背景噪聲。但如果需要從這段音頻中識別出聲音屬于哪個人的,就需要使用LDA對數(shù)據(jù)進(jìn)行降維,使每個人的語音信號具有區(qū)分性。
總結(jié)
以上是生活随笔為你收集整理的PCA与LDA两种降维方法原理的简要对比的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python3之deepcopy在pri
- 下一篇: 深度神经网络的分布式训练概述:常用方法和