深度神经网络:WX+B vs XW+B,作者原文已经删除,转载过来了~~~
生活随笔
收集整理的這篇文章主要介紹了
深度神经网络:WX+B vs XW+B,作者原文已经删除,转载过来了~~~
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
在大多數的神經網絡教科書中,神經網絡一般都會使用 y = WX+B 或者 y = XW+B 的形式。但是在 tensorflow 或者 theano 中,神經網絡的實現都是采用了 y = XW+B 的形式。這是為什么呢?我花了很多的時間去查找資料,最后發現一點,可能是 y = XW+B 計算導數比 y = WX+B 容易。
從理論上講,XW+B 和 WX+B 在神經網絡中是等價的(其實就是一個矩陣的轉置)。然而,當我們計算兩者的導數的時候卻差別很大。我們通過具體的數學推導來感受一下吧。
比如:y = XW
?比如:y = WX
注明:完全搬運簡書,作者原文已刪除~~~
總結
以上是生活随笔為你收集整理的深度神经网络:WX+B vs XW+B,作者原文已经删除,转载过来了~~~的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Discuz!论坛,如何查看全站最新帖子
- 下一篇: 计算机视觉库OpenCV中shape和r