FPGA机器学习之stanford机器学习第三堂1
? ? ? ?請(qǐng)注意:csdn那邊的博客http://blog.csdn.net/my_share。因?yàn)槟沁厡徍说臅r(shí)間太長(zhǎng)。搬遷入這里。stanford機(jī)器學(xué)習(xí)前2堂在CSDN的博客里面。
? ? ? ? 剛開(kāi)始他寫(xiě)了,這個(gè)公式第二堂講的,是梯度下降法,預(yù)測(cè)房?jī)r(jià)的那個(gè)。
? ? ? ?第二堂講的線(xiàn)性回歸,我們假設(shè)的房?jī)r(jià)的預(yù)測(cè)可以用線(xiàn)性方程來(lái)擬合。那只是一個(gè)假設(shè)量。其實(shí)可以用多次函數(shù)擬合。按照視頻的說(shuō)法就是,如果你只有7個(gè)樣本,你就可以用一個(gè)6次函數(shù)完成擬合。這個(gè)結(jié)論可以記住,其實(shí)我csdn里面關(guān)于神經(jīng)網(wǎng)絡(luò)中隱層數(shù)量設(shè)計(jì)的時(shí)候,也涉及到這一點(diǎn)。具體原因我不是很明白,可是這個(gè)現(xiàn)象理解。
? ? ? ?如果完全擬合的話(huà),并不能說(shuō)明你擬合的很好,也有可能是你的數(shù)據(jù)樣本采集的不正確。
? ? ? 過(guò)擬合就是說(shuō),僅僅是擬合了某種特定狀況的行為特征。而沒(méi)有反應(yīng)出房?jī)r(jià)和面積的真正規(guī)律。
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??locally weighted linear regression ? ?
? ? ?局部加權(quán)線(xiàn)性回歸。從表面上看局部加權(quán)線(xiàn)性回歸還是線(xiàn)性回歸,所以基本結(jié)構(gòu)還是一樣的。不過(guò)區(qū)別在于,
這個(gè)是上一堂線(xiàn)性回歸的要求。
這個(gè)是加權(quán)線(xiàn)性回歸。多了一個(gè)w是權(quán)系數(shù)。而這個(gè)w呢??
這里這個(gè)T呢。叫帶寬系數(shù),是我們自己設(shè)定的。和a學(xué)習(xí)系數(shù)的性質(zhì)差不多。從這個(gè)式子可以看出,其實(shí)是用周邊的點(diǎn),來(lái)擬合當(dāng)前的點(diǎn)。離的遠(yuǎn)的貢獻(xiàn)就低一些,也就是關(guān)聯(lián)性不強(qiáng)。這樣擬合的就準(zhǔn)確一些。
? ? ? ?按照老師的說(shuō)法是,w的函數(shù)還在討論中,僅僅是e指數(shù)比較合適。
? ? ? ?這個(gè)函數(shù)每一次預(yù)測(cè)都需要重新局部訓(xùn)練,具體怎么回事??還是看視頻吧。好像是每次都是局部擬合,而且線(xiàn)性。用周邊的來(lái)預(yù)測(cè)。說(shuō)明局部加權(quán)回歸這里的i是當(dāng)前附近的幾個(gè)點(diǎn),在訓(xùn)練的結(jié)果。而最終擬合成非線(xiàn)性函數(shù)。
? ? ? ?好像這個(gè)是每一次預(yù)測(cè)都需要重新學(xué)習(xí)重新擬合,所以數(shù)據(jù)量大的時(shí)候,代價(jià)很大。
? ? ? epsilon希臘字母,表示的是error,表示那些沒(méi)有被表示出來(lái)的特征。被遺忘的參考因素等。
? ? ? 這里的誤差模型為什么選用高斯分布,第一個(gè)它只是一個(gè)方便的討論模型,第二個(gè),目前最合適的。
?
?
...............未完待續(xù)。
?
? ? ? 我能力有限,但是我努力的將學(xué)習(xí)成果分享。到這里就是我今天所學(xué)到的新知識(shí),一起學(xué)習(xí)一起努力吧。
? ? ??
轉(zhuǎn)載于:https://www.cnblogs.com/maohuawang/p/3805209.html
總結(jié)
以上是生活随笔為你收集整理的FPGA机器学习之stanford机器学习第三堂1的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 【问题记录】RIDE-1.7.3.1控制
- 下一篇: 读书笔记011:《伤寒论》- 手厥阴心包