日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

神经网络和深度学习-第二周神经网络基础-第四节:梯度下降法

發布時間:2024/4/17 pytorch 73 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络和深度学习-第二周神经网络基础-第四节:梯度下降法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

2019獨角獸企業重金招聘Python工程師標準>>>

本系列博客是吳恩達(Andrew Ng)深度學習工程師 課程筆記。全部課程請查看吳恩達(Andrew Ng)深度學習工程師課程目錄

在上一節中學習了損失函數,損失函數是衡量單一訓練樣例的效果,成本函數用于衡量參數w和b的效果,在全部訓練集上來衡量。下面我們討論如何使用梯度下降法,來訓練和學習訓練集上的參數w和b,使得$J(w,b)$盡可能地小。

這個圖中的橫軸表示空間參數w和b,在實踐中,w可以是更高維的。成本函數$J(w,b)$是在水平軸w和b上的曲面,曲面的高度表示了$J(w,b)$在某一點的值,我們所想要做的就是找到這樣的w和b,使其對應的成本函數J值是最小值。可以看到成本函數$J$是一個凸函數,因此我們的成本函數$J(w,b)$之所以是凸函數,其性質是我們使用logistic回歸的個特定成本函數$J$的重要原因之一。為了找到更好的參數值,我們要做的就是用某初始值初始化w和b,用圖上最上面的小紅點表示。

對于logistic回歸而言幾乎任意初始化方法都有效,通用用0來進行初始化,但對于logistic回歸,我們通常不這么做。因為函數是凸的無論在哪里初始化,都應到達同一點或大致相同的點。梯度下降法所做的就是從初始點開始朝最陡的下坡方向走,就像圖里一樣沿著紅點一直走,直到到達或接近全局最優解。

轉載于:https://my.oschina.net/geekidentity/blog/1595844

與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的神经网络和深度学习-第二周神经网络基础-第四节:梯度下降法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。