机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)
前言:
上次寫(xiě)過(guò)一篇關(guān)于貝葉斯概率論的數(shù)學(xué),最近時(shí)間比較緊,coding的任務(wù)比較重,不過(guò)還是抽空看了一些機(jī)器學(xué)習(xí)的書(shū)和視頻,其中很推薦兩個(gè):一個(gè)是stanford的machine learning公開(kāi)課,在verycd可下載,可惜沒(méi)有翻譯。不過(guò)還是可以看。另外一個(gè)是prml-pattern recognition and machine learning, Bishop的一部反響不錯(cuò)的書(shū),而且是2008年的,算是比較新的一本書(shū)了。
前幾天還準(zhǔn)備寫(xiě)一個(gè)分布式計(jì)算的系列,只寫(xiě)了個(gè)開(kāi)頭,又換到寫(xiě)這個(gè)系列了。以后看哪邊的心得更多,就寫(xiě)哪一個(gè)系列吧。最近干的事情比較雜,有跟機(jī)器學(xué)習(xí)相關(guān)的,有跟數(shù)學(xué)相關(guān)的,也有跟分布式相關(guān)的。
這個(gè)系列主要想能夠用數(shù)學(xué)去描述機(jī)器學(xué)習(xí),想要學(xué)好機(jī)器學(xué)習(xí),首先得去理解其中的數(shù)學(xué)意義,不一定要到能夠輕松自如的推導(dǎo)中間的公式,不過(guò)至少得認(rèn)識(shí)這些式子吧,不然看一些相關(guān)的論文可就看不懂了,這個(gè)系列主要將會(huì)著重于去機(jī)器學(xué)習(xí)的數(shù)學(xué)描述這個(gè)部分,將會(huì)覆蓋但不一定局限于回歸、聚類(lèi)、分類(lèi)等算法。
回歸與梯度下降:
回歸在數(shù)學(xué)上來(lái)說(shuō)是給定一個(gè)點(diǎn)集,能夠用一條曲線去擬合之,如果這個(gè)曲線是一條直線,那就被稱(chēng)為線性回歸,如果曲線是一條二次曲線,就被稱(chēng)為二次回歸,回歸還有很多的變種,如locally weighted回歸,logistic回歸,等等,這個(gè)將在后面去講。
用一個(gè)很簡(jiǎn)單的
總結(jié)
以上是生活随笔為你收集整理的机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 单变量线性回归程序实现
- 下一篇: 偏最小二乘法回归(Partial Lea