感知机模型的对偶形式[转载]
轉(zhuǎn)自:https://blog.csdn.net/jaster_wisdom/article/details/78240949#commentBox
1.區(qū)分一下易混淆的兩個(gè)概念,梯度下降和隨機(jī)梯度下降:
? ? ? ? 梯度下降:一次將誤分類集合中所有誤分類點(diǎn)的梯度下降;
? ? ? ? 隨機(jī)梯度下降:隨機(jī)選取一個(gè)誤分類點(diǎn)使其梯度下降。
2.對(duì)于誤分類的數(shù)據(jù)來(lái)說(shuō),當(dāng)w*xi + b>0時(shí),yi = -1,也就是,明明是正例,預(yù)測(cè)成負(fù)例。因此,誤分類點(diǎn)到超平面的距離為:
?因此所有誤分類點(diǎn)到超平面的總距離為:
?忽略1/||w||,我們就可以得到感知機(jī)學(xué)習(xí)的損失函數(shù)。
?3.損失函數(shù)
4.對(duì)偶形式
?對(duì)偶形式的一般性描述:
輸出Ni,b;?感知機(jī)模型為:
(1)Ni = 0
(2)在訓(xùn)練集中選取數(shù)據(jù)(xi,yi)
(3)若
則更新:
?(4)轉(zhuǎn)至(2)直到?jīng)]有誤分類的數(shù)據(jù)。
為了方便后期的計(jì)算,可先求出Gram矩陣。
? ? ? ? ??? ? ? ? ? ? ? ? ? ? ? ?
?例如,正例:x1 = (3,3)^T, x2 = (4,3)^T, 負(fù)例: x3 = (1,1)^T
? 那么Gram矩陣就是:
因?yàn)閷?duì)偶形式中會(huì)大量用到xi*xj的值,所以提前求出Gram矩陣會(huì)方便很多。
轉(zhuǎn)載于:https://www.cnblogs.com/BlueBlueSea/p/10061004.html
總結(jié)
以上是生活随笔為你收集整理的感知机模型的对偶形式[转载]的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 路飞学院python官网-路飞学院-Py
- 下一篇: 智慧政务解决方案(28页)pdf_智慧政