日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

神经网络模型 基本概念 一文看懂

發(fā)布時間:2023/12/8 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络模型 基本概念 一文看懂 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

1. 神經(jīng)元

Xi為一項輸入,Wi為對應的參數(shù)

先求和W0*X0+W1*X1+W2*X2+....=sum

再使用激活函數(shù)得到f(sum)=y

2.?神經(jīng)網(wǎng)絡

  • 輸入層?:負責將輸入向量傳遞給神經(jīng)網(wǎng)絡。如果我們有一個包含 3 個特征的矩陣(形狀 N x 3),則該層將 3 個數(shù)字作為輸入,并將相同的 3 個數(shù)字傳遞給下一層。

  • 隱藏層?:代表中間節(jié)點,它們對數(shù)字進行多次變換以提高最終結果的準確性,輸出由神經(jīng)元的數(shù)量定義。

  • 輸出層?:返回神經(jīng)網(wǎng)絡最終輸出的 如果我們進行簡單的二元分類或回歸,輸出層應該只有 1 個神經(jīng)元(因此它只返回 1 個數(shù)字)。在具有 5 個不同類別的多類別分類的情況下,輸出層應有 5 個神經(jīng)元。

3. 神經(jīng)網(wǎng)絡模型

標準神經(jīng)網(wǎng)絡、CNN、RNN

4. 激活函數(shù)

假設有一個包含 N 行、3 個特征和 1 個目標變量(二分類,取值0或1)的數(shù)據(jù)集,如下圖所示:

接下來我們要進行一個簡單的計算來對結果進行預估,下面的操作類似于單個神經(jīng)網(wǎng)絡的計算,f(WX+b),其中f函數(shù)叫做激活函數(shù)。

5. 激活函數(shù)類型

激活函數(shù)是非線性的映射函數(shù),使得神經(jīng)網(wǎng)絡具備強大的非線性擬合學習能力

6. 偏執(zhí)項(bias)

在每個神經(jīng)元內(nèi)部,輸入和權重的線性組合也包括一個偏差,類似于線性方程中的常數(shù),因此神經(jīng)元的完整公式是

7. 反向傳播

在訓練期間,模型通過將誤差傳播回節(jié)點并更新參數(shù)(權重和偏差)來學習以最小化損失。

8. 損失函數(shù)

常常利用梯度下降法來使損失函數(shù)Loss function的值盡可能小,即讓神經(jīng)網(wǎng)絡的預測值(實際輸出)和標簽值(預期的輸出)盡可能接近

如均方誤差損失函數(shù)(MSE):

9. 梯度下降

在最陡下降方向上重復步驟來找到損失函數(shù)的局部最小值。

?來源:

學習深度學習--深度學習中的一些基本概念

https://mp.weixin.qq.com/s/47g5qOTcoFPtHLsoDWarGw?forceh5=1

師妹問我怎么搭建神經(jīng)網(wǎng)絡

https://mp.weixin.qq.com/s/WbA9rdgFV482Q0giT-gU7A?forceh5=1

Keras-人工神經(jīng)網(wǎng)絡--隨機梯度下降法

https://www.jianshu.com/p/2d6bbebefd80

通俗易懂講解ML中的均方誤差 (MSE) - haltakov

https://www.jdon.com/57661

微程序學堂

總結

以上是生活随笔為你收集整理的神经网络模型 基本概念 一文看懂的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。