深度学习4线性回归,逻辑回归
y是連續(xù)的則是一個(gè)回歸問(wèn)題,y是離散的則是一個(gè)分類(lèi)問(wèn)題,這邊就開(kāi)始考慮y是離散的情況。
對(duì)于這樣的問(wèn)題很多,比如判斷一個(gè)人是否生病,或者判斷一個(gè)郵件是否是垃圾郵件。
回歸時(shí)連續(xù)型的,一般不用在上述的分類(lèi)問(wèn)題中,因?yàn)槠涫茉胍舻挠绊懕容^大,如果要把一個(gè)回歸方法用到分類(lèi)上的話,那就是logistic回歸。之所以叫其回歸,因?yàn)槠浔举|(zhì)上還是線性回歸,只是在特征到結(jié)果中加了一層函數(shù)映射。
對(duì)于這邊也就是使用一個(gè)g(z)將連續(xù)的值映射到0跟1上面。
下面就是將線性帶入到g(z)中。
則可以得到:
對(duì)于我們考慮的問(wèn)題是將連續(xù)的問(wèn)題離散化,下面就帶來(lái)兩個(gè)問(wèn)題,到底怎么做,還有就是為什么使用這個(gè)g(z)呢。至于為什么使用這個(gè)函數(shù)的時(shí)候作者后面講到一般線性模型的時(shí)候說(shuō)明,那下面就先看一看下面怎么做。
我們看這個(gè)g(z),我們會(huì)發(fā)現(xiàn)當(dāng),g(z)趨向于1,,g(z)趨向于0
這樣我們就有在0到1之間,下面我們就假設(shè)為y取1時(shí)候的概率。我們假設(shè)該事件服從0,1分布,這邊也可以是其他分布,不過(guò)有點(diǎn)復(fù)雜,則
也就是再x的條件下,y只能取0跟1,θ是參數(shù)。寫(xiě)成一般形式為
下面我們假設(shè)m的訓(xùn)練數(shù)據(jù)相互獨(dú)立,則我們下面求最大似然估計(jì),也就是求最能服從0,1分布的時(shí)候θ的值。(不知道這樣理解對(duì)不對(duì))
好,那下面求最大似然估計(jì),對(duì)于m個(gè)訓(xùn)練值
那么,我們也就是要求這個(gè)的最大值,使用了梯度下降法。
下面跟之前一樣,假設(shè)只有一個(gè)訓(xùn)練數(shù)據(jù)。
最終得到
雖然這邊的樣式跟之前線性回歸一樣,但是要注意的這里的,這不是一個(gè)線性函數(shù),而是我們定義的一個(gè)logistic函數(shù)。
轉(zhuǎn)載于:https://www.cnblogs.com/fengbing/archive/2013/05/18/3086284.html
總結(jié)
以上是生活随笔為你收集整理的深度学习4线性回归,逻辑回归的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: angularjs的ng-repeat回
- 下一篇: 【转载】利用scipy.misc等库对j