ML之NB:朴素贝叶斯Naive Bayesian算法的简介、应用、经典案例之详细攻略
ML之NB:樸素貝葉斯Naive Bayesian算法的簡介、應(yīng)用、經(jīng)典案例之詳細(xì)攻略
?
?
目錄
樸素貝葉斯Naive Bayesian算法的簡介
1、樸素貝葉斯計算流程表述
2、樸素貝葉斯的優(yōu)缺點(diǎn)
2.1、優(yōu)點(diǎn)
2.2、缺點(diǎn)
3、分類模型之DT與NB的比較
樸素貝葉斯Naive Bayesian算法的應(yīng)用
1、文本分類
樸素貝葉斯Naive Bayesian算法的經(jīng)典案例
?
?
?
樸素貝葉斯Naive Bayesian算法的簡介
? ? ? ? 樸素貝葉斯法是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類方法。樸素貝葉斯分類器基于一個簡單的假定:給定目標(biāo)值時屬性之間相互條件獨(dú)立。
? ? ? ? 通過以上定理和“樸素”的假定,我們知道:
P(Category | Document) = P(Document | Category ) * P(Category) / P(Document)
? ? ? ? 樸素貝葉斯的基本方法:在統(tǒng)計數(shù)據(jù)的基礎(chǔ)上,依據(jù)條件概率公式,計算當(dāng)前特征的樣本屬于某個分類的概率,選擇最大的概率分類。對于給出的待分類項,求解在此項出現(xiàn)的條件下各個類別出現(xiàn)的概率,哪個最大,就認(rèn)為此待分類項屬于哪個類別。
?
1、樸素貝葉斯計算流程表述
- (1)x = {a1, a2,..., am}為待分類項,每個ai為x的一個特征屬性
- (2)有類別集合C = {y1, y2, ..., yn}
- (3)計算P(y1|x), P(y2|x), ..., P(yn|x)
- (4)如果P(yk|x) = max{P(y1|x)
?
2、樸素貝葉斯的優(yōu)缺點(diǎn)
2.1、優(yōu)點(diǎn)
? ? ? ? 樸素貝葉斯算法假設(shè)了數(shù)據(jù)集屬性之間是相互獨(dú)立的,因此算法的邏輯性十分簡單,并且算法較為穩(wěn)定,當(dāng)數(shù)據(jù)呈現(xiàn)不同的特點(diǎn)時,樸素貝葉斯的分類性能不會有太大的差異。換句話說就是樸素貝葉斯算法的健壯性比較好,對于不同類型的數(shù)據(jù)集不會呈現(xiàn)出太大的差異性。當(dāng)數(shù)據(jù)集屬性之間的關(guān)系相對比較獨(dú)立時,樸素貝葉斯分類算法會有較好的效果。
2.2、缺點(diǎn)
? ? ? ? 屬性獨(dú)立性的條件同時也是樸素貝葉斯分類器的不足之處。數(shù)據(jù)集屬性的獨(dú)立性在很多情況下是很難滿足的,因?yàn)?span style="color:#3399ea;">數(shù)據(jù)集的屬性之間往往都存在著相互關(guān)聯(lián),如果在分類過程中出現(xiàn)這種問題,會導(dǎo)致分類的效果大大降低。
?
3、分類模型之DT與NB的比較
? ? ? ? 最為廣泛的兩種分類模型是決策樹模型(Decision Tree Model)和樸素貝葉斯模型(Naive Bayesian Model,NBM)。和決策樹模型相比,樸素貝葉斯分類器(Naive Bayes Classifier 或 NBC)發(fā)源于古典數(shù)學(xué)理論,有著堅實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。同時,NBC模型所需估計的參數(shù)很少,對缺失數(shù)據(jù)不太敏感,算法也比較簡單。理論上,NBC模型與其他分類方法相比具有最小的誤差率。但是實(shí)際上并非總是如此,這是因?yàn)镹BC模型假設(shè)屬性之間相互獨(dú)立,這個假設(shè)在實(shí)際應(yīng)用中往往是不成立的,這給NBC模型的正確分類帶來了一定影響。
?
?
樸素貝葉斯Naive Bayesian算法的應(yīng)用
1、文本分類
? ? ? ? 直觀的文本分類算法,也是最簡單的貝葉斯分類器,具有很好的可解釋性,樸素貝葉斯算法特點(diǎn)是假設(shè)所有特征的出現(xiàn)相互獨(dú)立互不影響,每一特征同等重要。但事實(shí)上這個假設(shè)在現(xiàn)實(shí)世界中并不成立:首先,相鄰的兩個詞之間的必然聯(lián)系,不能獨(dú)立;其次,對一篇文章來說,其中的某一些代表詞就確定它的主題,不需要通讀整篇文章、查看所有詞。所以需要采用合適的方法進(jìn)行特征選擇,這樣樸素貝葉斯分類器才能達(dá)到更高的分類效率。
?
?
樸素貝葉斯Naive Bayesian算法的經(jīng)典案例
1、基礎(chǔ)案例
ML之NB:(NLP)基于sklearn庫利用不同語種數(shù)據(jù)集訓(xùn)練NB(樸素貝葉斯)算法,對新語種進(jìn)行語種檢測
ML之NB&LoR:利用NB(樸素貝葉斯)、LoR(邏輯斯蒂回歸)算法(+CountVectorizer)對Rotten Tomatoes影評數(shù)據(jù)集進(jìn)行文本情感分析—五分類預(yù)測
ML之NB&LoR:利用NB(樸素貝葉斯)、LoR(邏輯斯蒂回歸)算法(+TfidfVectorizer)對Rotten Tomatoes影評數(shù)據(jù)集進(jìn)行文本情感分析—五分類預(yù)測
ML之NB:基于NB樸素貝葉斯算法訓(xùn)練20類新聞文本數(shù)據(jù)集進(jìn)行多分類預(yù)測
?
?
?
?
?
?
?
?
?
?
?
?
總結(jié)
以上是生活随笔為你收集整理的ML之NB:朴素贝叶斯Naive Bayesian算法的简介、应用、经典案例之详细攻略的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ML之SVM:基于SVM(sklearn
- 下一篇: NLP之TopicModel:朴素贝叶斯