日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

Gradient Descent和Back propagation在做什么?

發布時間:2023/11/27 生活经验 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Gradient Descent和Back propagation在做什么? 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Gradient Descent梯度下降

實際上你要用一個Gradient Descent的方法來train一個neural network的話你應該要怎么做?

到底實際上在train neural network的時候Back propagation這個algorithm到底是怎么運作的?這個Back propagation是怎么樣 neural network training比較有效率的?

---------------------------------------------------------------------------------------------

Gradient Descent這個方法就是:假設你的network有一大堆參數,一堆w一堆b,先選擇一個初始的參數然后計算這個對你的loss function的Gradient即,也就是計算每一個network里邊的參數等等對你的的偏微分,

是初始化的。

計算出這個東西以后,這個Gradient其實是一個vector,計算出這個vector以后,你就可以去更新你的參數,?

是更新出來的。

?然后這個process就繼續的持續下去,再算一遍的gradient,然后減掉gradient即update成,依次計算:

?

?在neural network里邊當你用Gradient Descent方法的時候,跟我們在做Logistic Regression還有Linear Regression等等沒有太大差別,但是最大的問題是在neural network里面,我們有非常多的參數,所以下面的vector是非常長的,

這可能是一個上百萬維度的vector,

所以現在最大的問題是你要如何有效的把這個百萬維的vectot有效的把它計算出來,那么這個時候就是Back propagation在做的事情;所以Back propagation并不是一個和Gradient Descent不同的training的方法,他就是Gradient Descent,他只是一個比較有效的演算法,讓你在計算這個gradient,這個vector的時候是可以比較有效率的把這個vector計算出來

在使用Back propagation沒有特別高深的數學,唯一需要知道的就是Chain Rule;

?------------------------------------------------------------------------------------------

前向傳遞輸入信號直至輸出產生誤差,反向傳播誤差信息更新權重矩陣。其根本就是求偏導以及高數中的鏈式法則;

梯度下降與反向傳播
梯度下降 是 找損失函數極小值的一種方法,
反向傳播 是 求解梯度的一種方法。

關于損失函數:
在訓練階段,深度神經網絡經過前向傳播之后,得到的預測值與先前給出真實值之間存在差距。我們可以使用損失函數來體現這種差距。損失函數的作用可以理解為:當前向傳播得到的預測值與真實值接近時,取較小值。反之取值增大。并且,損失函數應是以參數(w 權重, b 偏置)為自變量的函數。

訓練神經網絡,“訓練”的含義:
它是指通過輸入大量訓練數據,使得神經網絡中的各參數(w 權重, b 偏置)不斷調整“學習”到一個合適的值。使得損失函數最小。

如何訓練?
采用 梯度下降Gradient Descent?的方式,一點點地調整參數,找損失函數的極小值(最小值)

為啥用梯度下降?
由淺入深,我們最容易想到的調整參數(權重和偏置)是窮舉。即取遍參數的所有可能取值,比較在不同取值情況下得到的損失函數的值,即可得到使損失函數取值最小時的參數值。然而這種方法顯然是不可取的。因為在深度神經網絡中,參數的數量是一個可怕的數字,動輒上萬,十幾萬。并且,其取值有時是十分靈活的,甚至精確到小數點后若干位。若使用窮舉法,將會造成一個幾乎不可能實現的計算量。

第二個想到的方法就是微分求導。通過將損失函數進行全微分,取全微分方程為零或較小的點,即可得到理想參數。(補充:損失函數取下凸函數,才能使得此方法可行。現實中選取的各種損失函數大多也正是如此。)可面對神經網絡中龐大的參數總量,純數學方法幾乎是不可能直接得到微分零點的。

因此我們使用了梯度下降法。既然無法直接獲得該點,那么我們就想要一步一步逼近該點。一個常見的形象理解是,爬山時一步一步朝著坡度最陡的山坡往下,即可到達山谷最底部。(至于為何不能閃現到谷底,原因是參數數量龐大,表達式復雜,無法直接計算)我們都知道,向量場的梯度指向的方向是其函數值上升最快的方向,也即其反方向是下降最快的方向。計算梯度的方式就是求偏導。

這里需要引入一個步長的概念。個人理解是:此梯度對參數當前一輪學習的影響程度。步長越大,此梯度影響越大。若以平面直角坐標系中的函數舉例,若初始參數x=10,步長為1 。那么參數需要調整十次才能到達谷底。若步長為5,則只需2次。若為步長為11,則永遠無法到達真正的谷底。
深度學習筆記三:反向傳播(backpropagation)算法_謝小小XH-CSDN博客_backpropagati

總結

以上是生活随笔為你收集整理的Gradient Descent和Back propagation在做什么?的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 69av一区二区三区 | 福利视频网站 | 国产网站视频 | 国产高清视频在线免费观看 | 欧美日韩精品亚洲精品 | jizz国产在线观看 | 丝袜在线视频 | 永久在线视频 | 中国黄色小视频 | 91福利在线观看视频 | 日韩久久影视 | a级黄色小视频 | 亚洲天堂久久 | 国产叼嘿视频在线观看 | 奇米影视在线 | 国产成人精品视频ⅴa片软件竹菊 | 美国做爰xxxⅹ性视频 | 日韩欧美xxxx| 免费黄色小说视频 | 国产sm在线 | 国产精品自拍在线观看 | 国产网址在线观看 | 男插女av| 亚洲欧洲成人精品久久一码二码 | 国产中文欧美日韩在线 | 色97色| 伊人88 | av电影中文字幕 | 夜夜躁狠狠躁日日躁 | 久久77777| 岛国视频一区 | 一本黄色片| www.色网站 | 亚洲精品乱码 | 这里只有精品在线播放 | 亚欧洲精品在线视频 | 91爱 | 91黄色免费观看 | 中文字幕一区二区三区电影 | 绿帽视频 | 亚洲少妇xxx| 爱爱视频天天干 | 调教一区二区 | 福利影院在线观看 | 在线成人av| 激情国产一区 | 成人精品一区二区三区中文字幕 | 日本成人精品视频 | 欧美精品黄 | 亚洲综合免费观看高清完整版 | 绯色av一区| 在线看片日韩 | 日韩a级在线观看 | 欧美日韩激情在线 | 国产精品久久国产精麻豆96堂 | 亚洲天堂国产精品 | 日本三级一区二区 | 成人免费av | 嫩草影院av | 激情视频免费在线观看 | 国产精品-区区久久久狼 | 男人天堂网在线 | 国产精品成人免费一区久久羞羞 | 日本亲子乱子伦xxxx | 在线观看网站av | 久久久久久久久久久影院 | 五月天综合视频 | 欧美精品videos极品 | 日韩欧美精品久久 | 一级少妇女片 | 中文区中文字幕免费看 | 最新视频 - x88av | 人妻av中文系列 | 国产色视频 | 性感美女在线 | 日韩精品无码一区二区三区久久久 | 色涩涩 | 亚洲福利视频一区二区三区 | 2019毛片| 日本成人免费在线 | 精品人妻一区二区三区日产乱码卜 | 精品动漫3d一区二区三区免费版 | 亚洲av无码一区二区三区在线播放 | 91免费看网站 | 国产青青青 | 国产做爰xxxⅹ久久久精华液 | 国产日韩一区二区三区 | 亚洲另类色图 | 天天躁日日躁狠狠躁av | 伊人草草 | 日本网站免费 | 美女久久视频 | 日韩精品极品视频免费观看 | 极品人妻一区二区 | 国产精品无码一区二区三区三 | 国产乱码精品一区二区三 | 欧美日韩不卡合集视频 | 中文字幕在线视频免费播放 | 青青草97国产精品麻豆 |