日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Cs231n课堂内容记录-Lecture2-Part2 线性分类

發布時間:2024/1/17 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Cs231n课堂内容记录-Lecture2-Part2 线性分类 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Lecture 3

課程內容記錄:(上)https://zhuanlan.zhihu.com/p/20918580?refer=intelligentunit

? ? ? ? ? ? ? ? ? ? ? ? ?(中)https://zhuanlan.zhihu.com/p/20945670?refer=intelligentunit

? ? ? ? ? ? ? ? ? ? ? ? ?(下)https://zhuanlan.zhihu.com/p/21102293?refer=intelligentunit

1.線性分類器(linear classifer):

我們總是希望得到一個函數f(x,w),即評分函數(score function),x代表輸入數據,往往是圖像的numpy矩陣,w是權重或者一些參數,而整個函數的結果對應預測值的一維Numpy矩陣,矩陣中數值最大的預測值代表概率最高的預測對象。我們可以去利用充分地想象力改變f,已得到盡可能高效準確的預測結果,最簡單的f就是乘積的形式,也就是線性分類器。

通常我們會添加一個偏置項,他是對應預測結果數的一維向量,它對預測得到的數據進行偏置,以獲得更具有取向性的結果(如果你的分類結果中貓的數量大于狗,而測試集中貓狗的數量一致,很可能你的偏置更傾向于貓)。

2.NN和線性分類器的區別:

NN的訓練過程只是將訓練集圖片及標簽提取出來,預測過程中找到與預測對象L1距離最小的訓練集圖像,它對應的標簽類別就是預測類別。KNN多了一步是找到K個最小圖像進行二次投票。

線性分類器需要得到權重值W和偏置值b,然后相當于利用測試圖像去匹配不同類別對應的(W,b)組成的模板圖像,最為匹配的則屬于該類別。這樣極大地節省了測試集測試所需的時間。這時我們所要做的“匹配”過程,是使預測圖像得到的評分結果盡可能與訓練集中圖像的真實類別一致,即評分函數在正確的分類位置應當得到最高的評分。(也就是說通過W,b劃分出分類的特定空間)

3.關于支持向量機(SVM:Support Vector Machine):

支持向量機的基本模型是在特征空間上找到最佳的分離超平面使得訓練集上正負樣本間隔最大,原用來解決二分類問題的有監督學習算法,在引入了核方法之后SVM也可以用來解決非線性問題。離分離超平面最近的兩個數據點被稱為支持向量(Support Vector)。

參見吳恩達機器學習課程以及李航《統計學習方法》

4.關于正則化(regularization):

通過在損失函數中加入后一項,正則化項,我們對W的值進行了制約,希望模型選擇更簡單的W值。這里的“簡單”具體取決于你的模型種類和任務的規模。它同樣體現了奧卡姆剃刀的觀點:如果你找到了多個可以解釋結果的假設,一般來說我們應該選擇最簡約的假設。因為這樣的假設魯棒性更好,更適用于全新的測試集。基于這一思想,我們希望W的值盡量小。這樣我們的損失函數就具有兩個項,數據丟失項(data loss)和正則化項(Regularization)。這里我們用到了一種超參數λ用以平衡這兩項,稱為正則化參數。

關于正則化參數部分,可以參見吳恩達課程。

?

一些正則化方法如下圖:

?

對模型進行正則化(regulairzation),也就是在損失函數中加入正則項的主要目的是為了減輕模型的復雜度,在一定程度上減緩過擬合的速度。

?

5.關于范數(norm):

參見:https://blog.csdn.net/a493823882/article/details/80569888

6.支持向量機(SVM)和Softmax分類器的對比:

SVM和Softmax是最常用的兩個分類器,Softmax的損失函數和SVM不同,SVM輸出f(x,W),我們得到每個分類的對應的評分大小。而Softmax的輸出更加直觀,是各分類歸一化后的分類概率。在Softmax分類器中,函數f(x,W)=Wx的形式保持不變,但分類器將這些評分值視為每個分類的未歸一化的對數概率,并且將折葉損失(hinge loss)替換成了交叉熵損失(cross-entropy loss)。

關于交叉熵的解釋以及兩者區別的具體例子,以及關于兩者區別的一些解釋,課程筆記中講得很好。

注:

關于softmax對數取負的原因:我們將對數概率指數化,歸一化之后再取對數,這時如果結果越好當然概率越高,但我們期望loss應該越低才對,所以對結果取負。

Softmax Classifier,又稱Multinomial Logistic Regression,多項式邏輯回歸。

7.loss function總結:

?

轉載于:https://www.cnblogs.com/yun-an/p/10146682.html

總結

以上是生活随笔為你收集整理的Cs231n课堂内容记录-Lecture2-Part2 线性分类的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。