日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

L2正则化方法

發布時間:2025/3/19 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 L2正则化方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

背景

在機器學習中,無論是分類還是回歸,都可能存在由于特征過多而導致的過擬合問題。當然解決的辦法有

(1)減少特征,留取最重要的特征。

(2)懲罰不重要的特征的權重,即降低不重要特征的權重。

但是通常情況下,我們不知道應該懲罰哪些特征的權重取值。通過正則化方法可以防止過擬合,提高泛化能力。

介紹

先來看看L2正則化方法。對于之前梯度下降講到的損失函數來說,在代價函數后面加上一個正則化項,得到

注意是從1開始的。對其求偏導后得到


然后得到梯度下降的表達式如下



也就是說權值進行了衰減。那么為什么權值衰減就能防止overfitting呢 ?

首先,我們要知道一個法則-奧卡姆剃刀,用更少的東西做更多事。從某種意義上說,更小的權值就意味著模型的復雜度更低,對數據的擬合更好。接下來,引用知乎上的解釋。

(1)當權值系數更大時,會過擬合。

(2)在PRML中,正則化就是通過對模型的參數設定一個先驗來防止過擬合。

試想一下,在上圖中,如果不加正則化項,那么最優參數對應的等高線離中心點的距離可能會更近,加入正 則化項后使得訓練出的參數對應的等高線離中心點的距離不會太近,也不會太遠。從而避免了過擬合。

總結

以上是生活随笔為你收集整理的L2正则化方法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。