日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

逻辑回归 logistic regression

發(fā)布時間:2025/3/20 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 逻辑回归 logistic regression 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

雖然名字里有回歸,但實際上,邏輯回歸算法是一種分類算法。

文章目錄

    • 指數(shù)函數(shù) exp(x)
    • S型函數(shù) Sigmoid function
    • 對數(shù)函數(shù) log(x)
    • 邏輯回歸
    • 邏輯回歸的代價函數(shù)

指數(shù)函數(shù) exp(x)

現(xiàn)今指數(shù)函數(shù)通常特指以 eee 為底數(shù)的指數(shù)函數(shù)(即 exe^xex),為數(shù)學(xué)中重要的函數(shù),也可寫作 exp(x)exp(x)exp(x)。這里的 eee 是數(shù)學(xué)常數(shù),也就是自然對數(shù)函數(shù)的底數(shù),近似值為 2.7182818282.7182818282.718281828,又稱為歐拉數(shù)。

  • 作為實數(shù)變量 xxx 的函數(shù),exe^xex 的圖像總是正的(在 xxx 軸之上)并遞增(從左向右看),它不觸及 xxx 軸,盡管它可以任意程度的靠近它。

  • 函數(shù)特點是:x&gt;0x&gt;0x>0y&gt;1y&gt;1y>1x&lt;0x&lt;0x<00&lt;y&lt;10&lt;y&lt;10<y<1 無限接近 0。

S型函數(shù) Sigmoid function

S型函數(shù)(Sigmoid function),又稱邏輯函數(shù)(Logistic function),其圖形如下:

f(x)=11+e?xf(x)=\frac{1}{1+e^{-x}}f(x)=1+e?x1?

它將輸入的值 xxx “擠壓” 到 [0,1][0,1][0,1] 范圍內(nèi),很大的負數(shù)變成 0,很大的正數(shù)變成 1。歷史上,sigmoid 函數(shù)一度被用作激活函數(shù)。

對數(shù)函數(shù) log(x)

由:

34=3×3×3×3=813^4 = 3 \times 3 \times 3 \times 3=8134=3×3×3×3=81

可以得出:

4=log?3814=\log_3 814=log3?81

用日常語言說,即以 3 為底 81 的對數(shù)是 4。

eee 為底的自然對數(shù),記作 ln?(x)\ln(x)ln(x)loge(x)log_e(x)loge?(x) ,其圖形為:

邏輯回歸

邏輯回歸的假設(shè)函數(shù)表達式:

hθ(x)=11+e?θTxh_{\theta}(x) = \frac{1}{1+e^{-\theta^{T}x}}hθ?(x)=1+e?θTx1?

假設(shè)函數(shù)中:

  • 如果 hθ(x)≥0.5h_{\theta}(x)\ge0.5hθ?(x)0.5 ,我們認為 y=1y=1y=1

  • 如果 hθ(x)&lt;0.5h_{\theta}(x)\lt0.5hθ?(x)<0.5 ,我們認為 y=0y=0y=0

即:

  • 當(dāng) θTx&lt;0\theta^{T}x\lt0θTx<0 時,y=0y=0y=0

  • 當(dāng) θTx≥0\theta^{T}x\ge0θTx0 時,y=1y=1y=1

  • 當(dāng) θTx=0\theta^{T}x=0θTx=0 時,得到假設(shè)函數(shù)的 決策邊界 (decision boundary)

邏輯回歸的代價函數(shù)

邏輯回歸的假設(shè)函數(shù)為非凸函數(shù),直接代入會有多個局部最優(yōu)值。因此,為了表現(xiàn)為凸函數(shù),邏輯回歸的代價函數(shù)如下:

Cost(hθ(x),y)=?ylog(hθ(x))?(1?y)log(1?hθ(x))Cost(h_{\theta}(x),y)=-ylog(h_{\theta}(x))-(1-y)log(1-h_{\theta}(x))Cost(hθ?(x),y)=?ylog(hθ?(x))?(1?y)log(1?hθ?(x))

對應(yīng)的函數(shù)的圖形如下:

  • 即,如果標簽是1,那么 hθ(x)h_{\theta}(x)hθ?(x) 越接近 0 代價越高:

    cost=?log(hθ(x))(y=1)cost = -log(h_{\theta}(x)) (y=1)cost=?log(hθ?(x))(y=1)

  • 如果標簽是 0,那么 hθ(x)h_{\theta}(x)hθ?(x) 越接近 1 代價越高:

    cost=?log(1?hθ(x))(y=0)cost = -log(1-h_{\theta}(x)) (y=0)cost=?log(1?hθ?(x))(y=0)

總結(jié)

以上是生活随笔為你收集整理的逻辑回归 logistic regression的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。