日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

吴恩达第三周逻辑回归

發布時間:2025/4/5 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 吴恩达第三周逻辑回归 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

分類問題
我們嘗試預測的是結果是否屬于某一個類(例如正確或錯誤)
分類舉例

  • 判斷一封電子郵件是否是垃圾郵件
  • 判斷一次金融交易是否是欺詐
  • 判斷一個腫瘤是惡性的還是良性的
  • 考查二元分類問題
    我們將因變量(dependent variable)可能屬于的兩個類分別稱為正向類(positive class)和負向類(negative class),我們分類器的輸出值要么是1要么是0,1表示正向類,0表示負向類。

    引入一個新的模型:邏輯回歸模型
    hθ(x)=g(θTX)h_\theta(x)=g(\theta^TX)hθ?(x)=g(θTX)
    其中,X代表特征向量,g代表一個常用的邏輯函數(logistic function):Sigmoid function,是一個常見的S型函數
    sigmoid函數的公式
    g(z)=11+e?zg(z)=\frac{1}{1+e^{-z}}g(z)=1+e?z1?

    sigmoid函數圖形

    圖片來源:維基百科

    對模型的理解
    hθ(x)=g(θTX)h_\theta(x)=g(\theta^TX)hθ?(x)=g(θTX)的作用是,對于給定的輸入變量,根據選擇的參數,計算輸出變量等于1的可能性(Estimated probality)用數學公式表達:
    hθ(x)=P(y=1∣x;θ)h_\theta(x)=P(y=1|x;\theta)hθ?(x)=P(y=1x;θ)
    例如,對于給定的x,通過確定的參數計算得到hθ(x)=0.7h_\theta(x)=0.7hθ?(x)=0.7,則表示y有70%的可能性
    是1(正向類),相應地,有30%的可能性是0(負向類)。

    代價函數
    如何擬合邏輯回歸模型的參數θ\thetaθ

    邏輯回歸的代價函數為
    J(θ)=1m∑i=1mCost(hθ(x(i)),y(i))J(\theta)=\frac{1}{m}\sum_{i=1}^{m}Cost(h_\theta(x^{(i)}),y^{(i)})J(θ)=m1?i=1m?Cost(hθ?(x(i)),y(i))
    其中
    Cost(hθ(x),y)={?log(hθ(x))if?y=1?log(1?hθ(x))if?y=0Cost(h_\theta(x^{}),y^{})= \begin{cases} -log(h_\theta(x)) & \text{if $y$=1}\\ -log(1-h_\theta(x))&\text{if $y$=0} \end{cases} Cost(hθ?(x),y)={?log(hθ?(x))?log(1?hθ?(x))?if?y=1if?y=0?

    來源:吳恩達上課ppt
    這樣構建的Cost(hθ(x),y)Cost(h_\theta(x^{}),y^{})Cost(hθ?(x),y)函數的特點是:

  • 當實際輸出y=1,并且hθ(x)=1h_\theta(x)=1hθ?(x)=1時,誤差為0
  • 當實際輸出y=1,但是hθ(x)≠1h_\theta(x)≠1hθ?(x)?=1時,誤差隨著hθ(x)h_\theta(x)hθ?(x)變小而增大
  • 當實際輸出y=0,并且hθ(x)=0h_\theta(x)=0hθ?(x)=0時,誤差為0
  • 當實際輸出y=0,但是hθ(x)≠0h_\theta(x)≠0hθ?(x)?=0時,誤差隨著hθ(x)h_\theta(x)hθ?(x)變大而增大

  • 來源:機器學習個人筆記完整版v5.4-A4打印版

    代價函數Cost(hθ(x),y)Cost(h_\theta(x^{}),y^{})Cost(hθ?(x),y)的簡化表達式,將分段函數寫成一個表達式
    Cost(hθ(x),y)=?y×log(hθ(x))?(1?y)×log(1?hθ(x))Cost(h_\theta(x^{}),y^{})=-y\times log(h_\theta(x))-(1-y) \times log(1-h_\theta(x))Cost(hθ?(x),y)=?y×log(hθ?(x))?(1?y)×log(1?hθ?(x))

    由上面邏輯回歸的代價函數
    J(θ)=1m∑i=1mCost(hθ(x(i)),y(i))J(\theta)=\frac{1}{m}\sum_{i=1}^{m}Cost(h_\theta(x^{(i)}),y^{(i)})J(θ)=m1?i=1m?Cost(hθ?(x(i)),y(i))
    代入得
    邏輯回歸的代價函數為
    J(θ)=1m∑i=1m[?y(i)×log(hθ(x(i)))?(1?y(i))×log(1?hθ(x(i)))]J(\theta)=\frac{1}{m}\sum_{i=1}^{m}\left [-y^{(i)}\times log\left(h_\theta(x^{(i)})\right)-(1-y^{(i)}) \times log\left(1-h_\theta(x^{(i)})\right)\right ]J(θ)=m1?i=1m?[?y(i)×log(hθ?(x(i)))?(1?y(i))×log(1?hθ?(x(i)))]

    提出負號,即
    J(θ)=?1m∑i=1m[y(i)×log(hθ(x(i)))+(1?y(i))×log(1?hθ(x(i)))]J(\theta)=-\frac{1}{m}\sum_{i=1}^{m}\left [y^{(i)}\times log\left(h_\theta(x^{(i)})\right)+(1-y^{(i)}) \times log\left(1-h_\theta(x^{(i)})\right)\right ]J(θ)=?m1?i=1m?[y(i)×log(hθ?(x(i)))+(1?y(i))×log(1?hθ?(x(i)))]

    使用梯度下降法計算使得該代價函數最小的參數值
    來源:吳恩達上課ppt

    參考資料
    吳恩達,Deep Learning
    黃海廣,機器學習個人筆記完整版v5.4-A4打印版

    總結

    以上是生活随笔為你收集整理的吴恩达第三周逻辑回归的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。