日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习笔记(十一)——逻辑回归

發(fā)布時(shí)間:2025/3/15 编程问答 20 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习笔记(十一)——逻辑回归 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

一、引言

????雖然說是邏輯回歸,其實(shí)既可以用它做回歸,也可以用它做分類。一般我們從最簡單的二分類問題開始了解他,當(dāng)然也可以做多分類。

二、Logistic Regression 的一般步驟

  • 找一個(gè)合適的假設(shè)
  • 構(gòu)造損失函數(shù)
  • 讓損失函數(shù)最小,求出對應(yīng)的參數(shù)值
  • 三、二分類問題下Logistic Regression的過程

    3.1 Logistic Function

    ????在機(jī)器學(xué)習(xí)筆記(十)——Logistic Function AND Softmax Function中我們已經(jīng)討論過了Logistic 函數(shù),因此,建議不熟悉的讀者參考上述文章。

    3.2 找一個(gè)合適的假設(shè)

    ????假設(shè)樣本是各個(gè)貸款人的信息,標(biāo)簽是他是否違約。目標(biāo)是建立一個(gè)模型,用來預(yù)測一個(gè)貸款人違約的可能性,而銀行根據(jù)這個(gè)信息決定是否放款給當(dāng)前的貸款人。那么,很明顯,這是一個(gè)分類問題,根據(jù)貸款人的一些信息和已知的標(biāo)簽,我們建立模型,去預(yù)測新來的貸款人違約的可能性。這里將貸款人的各個(gè)信息,如學(xué)歷、年收入、信用卡違約次數(shù)等作為x,將他是否違約記為y,其中y=1表示違約,y=0表示不違約。那么,一個(gè)貸款人違約的可能性為:

    hθ(x)=g(θTx)=11+e?θTx
    其中, θ是參數(shù)向量。通過上式,可以將借款人的各個(gè)信息映射到(0,1)之間,表示他是否違約的可能性。
    P(y=1|x;θ)=hθ(x)P(y=0|x;θ)=1?hθ(x)
    將上式表示成一個(gè)式子:
    P(y|x;θ)=hθ(x)y(1?hθ(x))1?y
    至此,得到了一個(gè)給定貸款人信息時(shí),他違約概率的表達(dá)式。

    3.3 構(gòu)造損失函數(shù)

    ????在整個(gè)樣本集中,m個(gè)獨(dú)立樣本出現(xiàn)的似然函數(shù)是:
    L(θ)=i=1mP(yi|xi;θ)
    利用最大似然求θ,取對數(shù)最大似然:

    l(θ)=logL(θ)=i=1mlogP(yi|xi;θ)
    定義下式為損失函數(shù):
    J(θ)=?1ml(θ)=?1mi=1mlog[hθ(xi)yi(1?hθ(xi))1?yi]=?1mi=1m{yiloghθ(xi)+(1?yi)log[1?hθ(xi)]}
    最大化 l(θ)相當(dāng)于最小化 J(θ).

    3.4 讓損失函數(shù)最小,求出對應(yīng)的參數(shù)值

    ????優(yōu)化的目標(biāo)函數(shù)如下:

    minJ(θ)
    由于上式中的 θ是一個(gè)參數(shù)向量,因此,沒辦法用函數(shù)導(dǎo)數(shù)等于0直接求出,它是沒有解析解的,因此,我們可以采用梯度下降的方法求得極小值。梯度下降方法請參照 最優(yōu)化學(xué)習(xí)筆記(三)——梯度下降法。
    ?J(θ)?θ=?1mi=1m{?T(θ)?θ}(1)
    其中:
    T(θ)=yloghθ(x)+(1?y)log[1?hθ(x)]
    ?T(θ)?θ=y1hθ(x)?hθ(x)?θ+(1?y)11?hθ(x)(??hθ(x)?θ)=?hθ(x)?θ(yhθ(x)+(y?1)1?hθ(x))=?hθ(x)?θ(y?hθ(x)hθ(x)(1?hθ(x)))
    因?yàn)?#xff1a;
    ?hθ(x)?θ=hθ(x)(1?hθ(x))x
    則:
    T(θ)=(y?hθ(x))x
    由于取的是樣本集中的第 i 個(gè)樣本,所以將上式代入(1)
    ?J(θ)?θ=?1mi=1m(yi?hθ(xi))xi=1mi=1m(hθ(xi)?yi)xi
    這樣,就可以得到 θ的迭代公式:
    θ=θ+α?J(θ)?θ=θ+α1mi=1m(hθ(xi)?yi)xi2
    需要說明的是,我們可以從2式中看出,每次計(jì)算一次 θ,都要進(jìn)行全部樣本數(shù)據(jù)的計(jì)算,直到 θ收斂,還有一種可以采用隨機(jī)梯度法進(jìn)行計(jì)算,這樣只需要遍歷一遍數(shù)據(jù)集即可,下次討論。

    總結(jié)

    以上是生活随笔為你收集整理的机器学习笔记(十一)——逻辑回归的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。