日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > 循环神经网络 >内容正文

循环神经网络

【NLP】 深度学习NLP开篇-循环神经网络(RNN)

發(fā)布時(shí)間:2025/3/20 循环神经网络 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【NLP】 深度学习NLP开篇-循环神经网络(RNN) 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

從這篇文章開(kāi)始,有三AI-NLP專(zhuān)欄就要進(jìn)入深度學(xué)習(xí)了。本文會(huì)介紹自然語(yǔ)言處理早期標(biāo)志性的特征提取工具-循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)。首先,會(huì)介紹RNN提出的由來(lái);然后,詳細(xì)介紹RNN的模型結(jié)構(gòu),前向傳播和反向傳播的過(guò)程;最后,討論RNN的特點(diǎn)及其優(yōu)劣勢(shì)。

作者&編輯 | 小Dream哥

完整的NLP深度學(xué)習(xí)介紹,應(yīng)該從反向傳播(BP)開(kāi)始,進(jìn)而介紹深度神經(jīng)網(wǎng)絡(luò)(DNN),卷積神經(jīng)網(wǎng)絡(luò)(CNN)也是必不可少的內(nèi)容。鑒于有三AI已經(jīng)發(fā)布了大量的CV相關(guān)的文章,其中必有相關(guān)的介紹。所以,在NLP專(zhuān)欄就暫不介紹相關(guān)的內(nèi)容了。如果有需要的同學(xué),可以留言提出來(lái)。

1 引言:RNN

對(duì)于一些序列輸入的信息,例如語(yǔ)音、語(yǔ)言等,不同時(shí)刻之間的輸入存在相互的影響,需要一種模型能夠“記憶”歷史輸入的信息,進(jìn)而對(duì)整個(gè)序列進(jìn)行完整的特征提取和表征。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)就是面對(duì)這樣的需求提出來(lái)的,它能夠“記憶”序列輸入的歷史信息,從而能夠較好的對(duì)整個(gè)序列進(jìn)行語(yǔ)義建模。

目前,RNN及其變種在NLP領(lǐng)域有著廣泛的應(yīng)用。語(yǔ)音識(shí)別、對(duì)話系統(tǒng)、機(jī)器翻譯、情感分析等等領(lǐng)域,在產(chǎn)業(yè)界,RNN及其變種都是最主要的特征提取工具。

關(guān)于RNN的特性,這里先不做太多理論上的說(shuō)明,等介紹完其結(jié)構(gòu)、前向傳播和反向傳播后我們?cè)賮?lái)討論。

基于篇幅的限制,本文會(huì)先介紹最基本的RNN模型結(jié)構(gòu)和原理,LSTM會(huì)在下一篇文章中做詳細(xì)的介紹。

2 RNN的結(jié)構(gòu)

如上圖所示,是RNN的結(jié)構(gòu)圖。相較于CNN繁雜的卷積運(yùn)算過(guò)程和復(fù)雜的網(wǎng)絡(luò)層次,RNN的模型結(jié)構(gòu)看上去相當(dāng)?shù)暮?jiǎn)潔。同樣的,RNN模型的結(jié)構(gòu)也分為輸入層(Input Layer)、隱藏層(Hidden Layer)和輸出層(Output Layer)。圖中的箭頭表示數(shù)據(jù)的流動(dòng),需要注意的是在隱藏層,有一個(gè)回流的箭頭,這是這個(gè)箭頭的作用,使得RNN具有了“記憶”的能力。

這樣看,同學(xué)們可能還無(wú)法看清楚數(shù)據(jù)在RNN模型內(nèi)到底是如何流動(dòng)的。我們將RNN模型的單元按時(shí)間展開(kāi),如下圖所示:

圖片來(lái)自:https://www.nature.com/articles/nature14539

可以看到,不同時(shí)刻的數(shù)據(jù)x_t與上一時(shí)刻的狀態(tài)s_(t-1),從輸入層輸入,經(jīng)過(guò)一系列運(yùn)算(激活函數(shù))之后,得到該時(shí)刻的狀態(tài)s_t,s_t再經(jīng)過(guò)矩陣運(yùn)算得到該時(shí)刻的輸出o_t,同時(shí)t時(shí)刻的狀態(tài)s_t會(huì)傳給下一時(shí)刻的輸入層。

通過(guò)這種方式,任意時(shí)刻的序列輸入都會(huì)包含前面所有時(shí)刻的狀態(tài)信息,就實(shí)現(xiàn)了“記憶”的目的,實(shí)際就是一種殘差的結(jié)構(gòu)。

需要注意的是,這里所有的RNN結(jié)構(gòu)單元是權(quán)重共享的,用大白話說(shuō),就是只有一個(gè)RNN單元。

下面我們來(lái)詳細(xì)看看數(shù)據(jù)的流動(dòng)過(guò)程,也就是RNN的正向傳播與反向傳播過(guò)程。

3?RNN的正向傳播

RNN的正向傳播過(guò)程,就是通過(guò)輸入數(shù)據(jù)x_t,求該時(shí)刻的RNN單元狀態(tài)(Cell State)s_t以及輸出o_t的過(guò)程。

我們先來(lái)看s_t

U和W是權(quán)重參數(shù),f是激活函數(shù),激活函數(shù)有sigmoid、relu以及tanh等。

o_t的計(jì)算過(guò)程為:

V是權(quán)重參數(shù),g是輸出函數(shù),因?yàn)橥ǔJ穷A(yù)測(cè)類(lèi)別,所以一般是softmax。

4 RNN的反向傳播

下面我們基于RNN的正向傳播過(guò)程來(lái)介紹下RNN的反向傳播過(guò)程。RNN的反向傳播與DNN的反向傳播的基本理論是一致的。差別在于,因?yàn)镽NN是序列的輸入,因此其反向傳播是基于時(shí)間的,叫BPTT(Back PropagationThrough Time)。

與DNN一致,反向傳播的過(guò)程其實(shí)就是更新參數(shù)U,W,V的過(guò)程。知道反向傳播的同學(xué)應(yīng)該知道,更新,W,V其實(shí)就是求梯度。

用L_t表示t時(shí)刻的模型損失,則輸入完一個(gè)序列后的總損失值為:

我們先來(lái)看參數(shù)V的更新,根據(jù)偏導(dǎo)公式,

損失函數(shù)通常為交叉熵,因此,

再來(lái)看看W和U的更新,像DNN的反向傳播一樣,我們引入一個(gè)中間變量,暫稱(chēng)之誤差delta,t時(shí)刻的誤差delta_t:

我們的目標(biāo)是要得到一個(gè)遞推公式,用delta_(t+1)來(lái)表示delta_t,注意這里激活函數(shù)用的是tanh函數(shù)。

最后時(shí)刻的誤差可以表示為:

這樣就可以通過(guò)delta_T一步一步得到所有時(shí)刻的誤差。

那么,怎么通過(guò)誤差得到W和U的梯度呢?

羅列了一大堆的公式,肯定有同學(xué)看花了眼。公式推導(dǎo)有不明白的地方,沒(méi)有關(guān)系,我們暫且先放下,后面再慢慢的思考,最重要的是理解反向傳播時(shí),梯度更新的思想和技巧。下面我?guī)е蠹铱偨Y(jié)一下這個(gè)過(guò)程,相信你能獲益匪淺。

1.正向傳播,求得所有時(shí)刻的x_t,o_t,s_t

2. 根據(jù)梯度公式,求V的梯度

3. 求得T時(shí)刻的誤差delta_T

4.根據(jù)誤差的遞推公式,求得所有時(shí)刻的誤差delta_1,delta_2,...,delta_T

5. 根據(jù)梯度公式,和上述誤差值求得W的梯度

6. 根據(jù)梯度公式,和上述誤差值求得U的梯度

7. 更新權(quán)重參數(shù)

總結(jié)

上文詳細(xì)講述了RNN的模型結(jié)構(gòu)及其正向和反向傳播過(guò)程。


RNN雖然理論上可以很漂亮的解決序列數(shù)據(jù)的訓(xùn)練,但是它也像DNN一樣有梯度消失的問(wèn)題,當(dāng)序列很長(zhǎng)的時(shí)候問(wèn)題尤其嚴(yán)重。雖然同選擇合適的激活函數(shù)等方法能夠一定程度的減輕該問(wèn)題。但人們往往更青睞于使用RNN的變種。

因此,上面的RNN模型一般都沒(méi)有直接應(yīng)用的領(lǐng)域。在語(yǔ)音識(shí)別,對(duì)話系統(tǒng)以及機(jī)器翻譯等NLP領(lǐng)域?qū)嶋H應(yīng)用比較廣泛的是基于RNN模型的變種。

讀者們可以留言,或者加入我們的NLP群進(jìn)行討論。感興趣的同學(xué)可以微信搜索jen104,備注"加入有三AI NLP群"。

下期預(yù)告:應(yīng)用廣泛的LSTM

知識(shí)星球推薦

小Dream哥新開(kāi)了一個(gè)知識(shí)星球,在那里更系統(tǒng)的介紹NLP的知識(shí)。你可以提出你的疑問(wèn),小Dream哥和多位大咖都可以為你解答,感興趣的同學(xué)就掃碼加入吧。


轉(zhuǎn)載文章請(qǐng)后臺(tái)聯(lián)系

侵權(quán)必究

往期精選

  • 【NLP】自然語(yǔ)言處理專(zhuān)欄上線,帶你一步一步走進(jìn)“人工智能技術(shù)皇冠上的明珠”。

  • 【NLP】用于語(yǔ)音識(shí)別、分詞的隱馬爾科夫模型HMM

  • 【NLP】用于序列標(biāo)注問(wèn)題的條件隨機(jī)場(chǎng)(Conditional Random Field, CRF)

  • 【NLP】經(jīng)典分類(lèi)模型樸素貝葉斯解讀

  • 【技術(shù)綜述】深度學(xué)習(xí)在自然語(yǔ)言處理中的應(yīng)用發(fā)展史

  • 【NLP】 NLP專(zhuān)欄欄主自述,說(shuō)不出口的話就交給AI說(shuō)吧

總結(jié)

以上是生活随笔為你收集整理的【NLP】 深度学习NLP开篇-循环神经网络(RNN)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产一区二区观看 | 午夜xxxxx | 妖精视频一区二区三区 | 色婷婷综合五月 | 欧美天天射 | 黄色片在线免费观看 | 国产综合精品久久久久成人影 | 成人亚洲一区二区 | 天天色天天射天天干 | 天天色天 | 韩国日本中文字幕 | 26uuu亚洲国产精品 | 五月天国产视频 | 97伊人久久| 麻豆chinese新婚xxx | 综合天堂av久久久久久久 | 欧美午夜性 | 亚洲欧美综合视频 | 天天操人人 | 成人深夜小视频 | 成人深夜福利视频 | 人人舔人人 | 蜜桃啪啪| 国产一区二区三区福利 | 91黄色免费看 | 在线播放中文字幕 | 国产成人精品无码片区在线 | 日本九九热 | 体内精69xxxxx | 亚洲欧美国产精品久久久久久久 | 欧美日韩系列 | 国产成人精品av在线观 | 91av久久 | 国产资源视频 | 久久激情五月 | 毛片毛片毛片毛片毛片毛片毛片毛片 | 免费在线观看毛片视频 | 欧美久久免费 | 青娱乐在线免费视频 | 亚洲影视一区二区三区 | 嫩草网站 | 四虎永久免费观看 | 97色网 | 亚洲国产精品成人午夜在线观看 | 久久免费看少妇高潮 | 久久av免费观看 | 无码国产精品96久久久久 | 国产女人视频 | 日韩欧美亚洲在线 | 欧美一二三区视频 | 天天摸天天插 | 青青超碰| 日韩综合中文字幕 | 欧美亚洲不卡 | 99视频在线观看视频 | 中国美女一级看片 | 美女屁股无遮挡 | 先锋影音av资源站 | 黄色一级片视频 | 极品女神无套呻吟啪啪 | 久久嫩草视频 | 中文无码日韩欧 | 国产欧美日韩亚洲 | 午夜精品一区二区三区在线 | 外国av网站 | 国产a久久麻豆入口 | 国语一区二区 | 国产一区二区三区影院 | 久热精品在线 | 福利一区二区在线观看 | 精品久久999 | 亚洲精品久久久乳夜夜欧美 | 日本成人在线播放 | 国产色无码精品视频国产 | 午夜影院免费观看 | 国产三级视频在线播放 | 亚洲视频 中文字幕 | 日韩精品色呦呦 | 性欧美ⅴideo另类hd | 国产免费av观看 | 国内自拍在线观看 | 成人av高清 | 激情综合小说 | 免费人成年激情视频在线观看 | wwwwxxxx国产 | 在线看黄色网 | 国产精品扒开做爽爽爽的视频 | 亚洲欧美天堂网 | 男女啪啪国产 | 中出在线 | 五月激情av | 国产精欧美一区二区三区蓝颜男同 | 日韩成人区 | 日韩91av | 中国一级特黄毛片 | 91丨porny丨对白| 97se在线| 久久久男人天堂 | 久久亚洲一区二区三区四区五区 |