日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

L1范数正则化

發(fā)布時間:2025/3/21 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 L1范数正则化 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.


L1范數(shù)正則化

編輯 鎖定 L1范數(shù)正則化( L1 regularization 或 lasso )是機器學習(machine learning)中重要的手段,在支持向量機(support vector machine)學習過程中,實際是一種對于成本函數(shù)(cost function)求解最優(yōu)的過程,因此,L1范數(shù)正則化通過向成本函數(shù)中添加L1范數(shù),使得學習得到的結果滿足稀疏化(sparsity),從而方便人類提取特征。 中文名
L1范數(shù)正則化
外文名
L1 regularization
別????名
稀疏規(guī)則算子
別????名
lasso

目錄

  • 1 L1范數(shù)的定義
  • 2 L1范數(shù)正規(guī)化原理
  • ? 成本函數(shù)的構建原理
  • ? 用最小二乘法學習的問題
  • ? 最大復雜度模型+L1正規(guī)化(懲罰項)
  • ? 為什么要這樣構建成本函數(shù)???
  • L1范數(shù)正則化L1范數(shù)的定義

    編輯 L1范數(shù)(L1 norm)是指向量中各個元素絕對值之和,也有個美稱叫“稀疏規(guī)則算子”(Lasso regularization)。 比如 向量 , 那么A的L1范數(shù)為

    L1范數(shù)正則化L1范數(shù)正規(guī)化原理

    編輯 在支持向量機(support vector machine)學習過程中,實際是一種對于成本函數(shù)(cost function)求解最優(yōu)的過程。

    L1范數(shù)正則化成本函數(shù)的構建原理

    例如我們有一個數(shù)學模型的樣子(structure), ,其中x是輸入,y是輸出。 如果我們已知 ,那么我們可以根據(jù)任何輸入x的值,知道輸出y的值。這叫預測(prediction)。 因此,問題進化為,我們手里有很對很多組x對應的y,但是不知道 !我們想通過測量很多組的x和y,來推斷出 為多少。 我們將 T記為 , 記為 。 那么原式則寫為 若 那么 因此我們現(xiàn)在知道 和 ,我們希望通過計算得到 ! 由于我們手中的很多組x和y都是通過實驗的結果測試出來的。測量的結果就會有誤差,因此 不可能計算你的準,那么我們很容易想到使用最小二乘法(least square) 來計算 。 我們構建一個方程,這個方程也是最小二乘法的核心 支持向量機的本質(zhì),就是找到一組能夠讓 最小! 因此,就是我們的成本函數(shù)。

    L1范數(shù)正則化用最小二乘法學習的問題

    如果我們的問題是’灰箱‘(grey box)(即我們已經(jīng)知道數(shù)學模型,而不知道參數(shù)),直接用最小二乘法找到 是很簡潔的。 如果我們的問題是‘黑箱’(black box) (即 我們既不知道數(shù)學模型,也不知道參數(shù)),在擬合時,我們就不知道我們需要用幾階的多項式模型來逼近(或者幾個核函數(shù)來逼近(kernel function),為了簡便,不在這里贅述)。那么我們甚至連 的個數(shù)都不知道。 我們只能通過嘗試和專家經(jīng)驗來猜測階數(shù)。如果我們的階數(shù)猜測多了,就會多出很多冗余的項。我們希望這些冗余項對應的權值 為0,這樣我們就知道哪些項是無關的,是冗余的項。 但是只用最小二乘法確定 時,可能所有的 的絕對值都極其巨大,這是很正常的現(xiàn)象,但是它使得我們無法剔除無關項,得到的模型也毫無實際意義,模型處于ill-condition狀態(tài) (即輸入很小的變化,就會引起輸出病態(tài)的巨大的變化)。

    L1范數(shù)正則化最大復雜度模型+L1正規(guī)化(懲罰項)

    我們在成本函數(shù)中加入L1范數(shù)(其實就是懲罰項),成本函數(shù) 變?yōu)? 其中 是我們用來控制L1正規(guī)化影響的權重系數(shù)。 因此,我們的目標成為了 : 找到一組 使得 最小! 繼而使用最小二乘法,完成運算。

    L1范數(shù)正則化為什么要這樣構建成本函數(shù)???

    如上文所述,監(jiān)督機器學習問題無非就是“minimize your error while regularizing your parameters”,也就是在規(guī)則化參數(shù)的同時最小化誤差(最小二乘法的原理)。最小化誤差是為了讓我們的模型擬合我們的訓練數(shù)據(jù),而規(guī)則化參數(shù)是防止我們的模型過分擬合我們的訓練數(shù)據(jù)。因為參數(shù)太多,會導致我們的模型復雜度上升,容易過擬合,也就是我們的訓練誤差會很小。但訓練誤差小并不是我們的最終目標,我們的目標是希望模型的測試誤差小,也就是能準確的預測新的樣本。所以,我們需要保證模型“簡單”的基礎上最小化訓練誤差,這樣得到的參數(shù)才具有好的泛化性能(也就是測試誤差也小),而模型“簡單”就是通過規(guī)則函數(shù)來實現(xiàn)的。另外,規(guī)則項的使用還可以約束我們的模型的特性。這樣就可以將人對這個模型的先驗知識融入到模型的學習當中,強行地讓學習到的模型具有人想要的特性,例如稀疏、低秩、平滑等等。[1]

    總結

    以上是生活随笔為你收集整理的L1范数正则化的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。