日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

ML Backpropagation算法实现的过程举例

發布時間:2024/7/5 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ML Backpropagation算法实现的过程举例 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Backpropagation算法實現的過程:

  • 輸入x:設置輸入層activation a (輸入層a等于x)

  • 正向更新:對于l=1, 2, 3,…L,計算(由前一層的值計算得到下一層的值)

  • 計算出輸出層error: (偏導數▽aC就是計算出的值a與真實值y之間的差(Tj-Oj);而對于sigmoid 函數的導數σ’就等于Oj(1-Oj))

    C要看實際所使用的 cost函數為何種

  • 反向更新error (backpropagate error):

    前面的w和delta相乘用dot,后面與σ’卷積用*(實際計算發現dot運算時可能要進行一定的轉置使數組的維度能對上,dot運算滿足的條件可以參照:https://blog.csdn.net/Moelimoe/article/details/100004920

  • 輸出: (權重和偏向的偏導)

  • Backpropagation算法舉例

    初始權重(initialize weights)是隨機產生的(如-1~1之間)
    X為實例,θ為偏向(bias),對于input layer是沒有偏向的,偏向可以定在
    -0.5~0.5之間
    如下圖
    由node4對應所有實例計算出的結果(0.332)即是node4對應的的值
    最開始所有層w,b都會初始化一個值
    以下[3,2,1]的神經元結構為例:input layer為所有x值,每一個結點代表一個x的值


    如:node4 = x1 * w14 + x2 * w24 + x3 * w34 + θ4 =0.2+0+(-0.5)+(-0.4)=-0.7(相當于中間變量Z或activation a)
    θ為偏向bias,算出來node4=-0.7也就是node4對于output的輸入值

    利用隱藏層error公式計算每一個結點的error:(node6由輸出層計算,5和4由公式weight*error計算)


    更新weight和bias:


    總結

    以上是生活随笔為你收集整理的ML Backpropagation算法实现的过程举例的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。