日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

神经网络模型 基本概念 一文看懂

發布時間:2023/12/8 51 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络模型 基本概念 一文看懂 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1. 神經元

Xi為一項輸入,Wi為對應的參數

先求和W0*X0+W1*X1+W2*X2+....=sum

再使用激活函數得到f(sum)=y

2.?神經網絡

  • 輸入層?:負責將輸入向量傳遞給神經網絡。如果我們有一個包含 3 個特征的矩陣(形狀 N x 3),則該層將 3 個數字作為輸入,并將相同的 3 個數字傳遞給下一層。

  • 隱藏層?:代表中間節點,它們對數字進行多次變換以提高最終結果的準確性,輸出由神經元的數量定義。

  • 輸出層?:返回神經網絡最終輸出的 如果我們進行簡單的二元分類或回歸,輸出層應該只有 1 個神經元(因此它只返回 1 個數字)。在具有 5 個不同類別的多類別分類的情況下,輸出層應有 5 個神經元。

3. 神經網絡模型

標準神經網絡、CNN、RNN

4. 激活函數

假設有一個包含 N 行、3 個特征和 1 個目標變量(二分類,取值0或1)的數據集,如下圖所示:

接下來我們要進行一個簡單的計算來對結果進行預估,下面的操作類似于單個神經網絡的計算,f(WX+b),其中f函數叫做激活函數。

5. 激活函數類型

激活函數是非線性的映射函數,使得神經網絡具備強大的非線性擬合學習能力

6. 偏執項(bias)

在每個神經元內部,輸入和權重的線性組合也包括一個偏差,類似于線性方程中的常數,因此神經元的完整公式是

7. 反向傳播

在訓練期間,模型通過將誤差傳播回節點并更新參數(權重和偏差)來學習以最小化損失。

8. 損失函數

常常利用梯度下降法來使損失函數Loss function的值盡可能小,即讓神經網絡的預測值(實際輸出)和標簽值(預期的輸出)盡可能接近

如均方誤差損失函數(MSE):

9. 梯度下降

在最陡下降方向上重復步驟來找到損失函數的局部最小值。

?來源:

學習深度學習--深度學習中的一些基本概念

https://mp.weixin.qq.com/s/47g5qOTcoFPtHLsoDWarGw?forceh5=1

師妹問我怎么搭建神經網絡

https://mp.weixin.qq.com/s/WbA9rdgFV482Q0giT-gU7A?forceh5=1

Keras-人工神經網絡--隨機梯度下降法

https://www.jianshu.com/p/2d6bbebefd80

通俗易懂講解ML中的均方誤差 (MSE) - haltakov

https://www.jdon.com/57661

微程序學堂

總結

以上是生活随笔為你收集整理的神经网络模型 基本概念 一文看懂的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。