日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

2.2 Logistic 回归-深度学习-Stanford吴恩达教授

發布時間:2025/4/5 pytorch 53 豆豆
生活随笔 收集整理的這篇文章主要介紹了 2.2 Logistic 回归-深度学习-Stanford吴恩达教授 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

←上一篇↓↑下一篇→
2.1 二元分類回到目錄2.3 Logistic 回歸損失函數

Logistic 回歸 (Logistic Regression)

在這個視頻中,我們會重溫邏輯回歸學習算法,該算法適用于二分類問題,本節將主要介紹邏輯回歸的Hypothesis Function(假設函數)。

對于二元分類問題來講,給定一個輸入特征向量 XXX,它可能對應一張圖片,你想識別這張圖片識別看它是否是一只貓或者不是一只貓的圖片,你想要一個算法能夠輸出預測,你只能稱之為 y^\hat{y}y^?,也就是你對實際值 yyy 的估計。更正式地來說,你想讓 y^\hat{y}y^? 表示 yyy 等于1的一種可能性或者是機會,前提條件是給定了輸入特征 XXX。換句話來說,如果 XXX 是我們在上個視頻看到的圖片,你想讓 y^\hat{y}y^? 來告訴你這是一只貓的圖片的機率有多大。在之前的視頻中所說的,XXX 是一個 nxn_xnx? 維的向量(相當于有 nxn_xnx? 個特征的特征向量)。我們用來 www 表示邏輯回歸的參數,這也是一個 nxn_xnx? 維向量(因為 www 實際上是特征權重,維度與特征向量相同),參數里面還有 bbb,這是一個實數(表示偏差)。所以給出輸入 xxx 以及參數 wwwbbb 之后,我們怎樣產生輸出預測值 y^\hat{y}y^?,一件你可以嘗試卻不可行的事是讓 y^=wTx+b\hat{y}=w^Tx+by^?=wTx+b。

這時候我們得到的是一個關于輸入 xxx 的線性函數,實際上這是你在做線性回歸時所用到的,但是這對于二元分類問題來講不是一個非常好的算法,因為你想讓 y^\hat{y}y^? 表示實際值 yyy 等于1的機率的話,y^\hat{y}y^? 應該在0到1之間。這是一個需要解決的問題,因為 wTx+bw^Tx+bwTx+b 可能比1要大得多,或者甚至為一個負值。對于你想要的在0和1之間的概率來說它是沒有意義的,因此在邏輯回歸中,我們的輸出 y^\hat{y}y^? 應該是等于由上面得到的線性函數式子作為自變量的sigmoid函數中,公式如上圖最下面所示,將線性函數轉換為非線性函數。

下圖是sigmoid函數的圖像,如果我把水平軸作為 zzz 軸,那么關于 zzzsigmoid函數是這樣的,它是平滑地從0走向1,讓我在這里標記縱軸,這是0,曲線與縱軸相交的截距是0.5,這就是關于的sigmoid函數的圖像。我們通常都使用 zzz 來表示 wTx+bw^Tx+bwTx+b 的值。


關于sigmoid函數的公式是這樣的,σ(z)=11+e?z\sigma(z)=\frac1{1+e^{-z}}σ(z)=1+e?z1? ,在這里 zzz 是一個實數,這里要說明一些要注意的事情,如果 zzz 非常大那么 e?ze^{-z}e?z 將會接近于0,關于 zzzsigmoid函數將會近似等于1除以1加上某個非常接近于0的項,因為 eee 的指數如果是個絕對值很大的負數的話,這項將會接近于0,所以如果 zzz 很大的話那么關于 zzzsigmoid函數會非常接近1。相反地,如果 zzz 非常小或者說是一個絕對值很大的負數,那么關于 e?ze^{-z}e?z 這項會變成一個很大的數,你可以認為這是1除以1加上一個非常非常大的數,所以這個就接近于0。實際上你看到當 zzz 變成一個絕對值很大的負數,關于 zzzsigmoid函數就會非常接近于0,因此當你實現邏輯回歸時,你的工作就是去讓機器學習參數 www 以及 bbb 這樣才使得 y^\hat{y}y^? 成為對 y=1y=1y=1 這一情況的概率的一個很好的估計。

在繼續進行下一步之前,介紹一種符號慣例,可以讓參數 www 和參數 bbb 分開。在符號上要注意的一點是當我們對神經網絡進行編程時經常會讓參數 www 和參數 bbb 分開,在這里參數 bbb 對應的是一種偏置。在之前的機器學習課程里,你可能已經見過處理這個問題時的其他符號表示。比如在某些例子里,你定義一個額外的特征稱之為 x0x_0x0?,并且使它等于1,那么 XXX 現在就是一個 nxn_xnx? 加1維的變量,然后你定義 y^=σ(θTx)\hat{y}=\sigma(\theta^Tx)y^?=σ(θTx)sigmoid函數。在這個備選的符號慣例里,你有一個參數向量 θ0,θ1,θ2,?,θnx\theta_0,\theta_1,\theta_2,\cdots,\theta_{n_x}θ0?,θ1?,θ2?,?,θnx??,這樣就 θ0\theta_0θ0? 充當了 bbb,這是一個實數,而剩下的 θ1\theta_1θ1? 直到 θnx\theta_{n_x}θnx?? 充當了 www ,結果就是當你實現你的神經網絡時,有一個比較簡單的方法是保持 bbbwww 分開。但是在這節課里我們不會使用任何這類符號慣例,所以不用去擔心。 現在你已經知道邏輯回歸模型是什么樣子了,下一步要做的是訓練參數 www 和參數 bbb,你需要定義一個代價函數,讓我們在下節課里對其進行解釋。

課程PPT



←上一篇↓↑下一篇→
2.1 二元分類回到目錄2.3 Logistic 回歸損失函數

總結

以上是生活随笔為你收集整理的2.2 Logistic 回归-深度学习-Stanford吴恩达教授的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。