日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

长短记忆型递归神经网络LSTM

發布時間:2024/3/26 编程问答 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 长短记忆型递归神经网络LSTM 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

原文鏈接http://www.csdn.NET/article/2015-11-25/2826323?ref=myread


scrolling="no" src="http://hits.sinajs.cn/A1/weiboshare.html?url=http%3A%2F%2Fwww.csdn.net%2Farticle%2F2015-11-25%2F2826323%3Fref%3Dmyread&type=3&count=&appkey=&title=%E4%BD%9C%E8%80%85%E6%97%A9%E5%89%8D%E6%8F%90%E5%88%B0%E4%BA%86%E4%BA%BA%E4%BB%AC%E4%BD%BF%E7%94%A8RNNs%E5%8F%96%E5%BE%97%E7%9A%84%E6%98%BE%E8%91%97%E6%88%90%E6%95%88%EF%BC%8C%E5%9F%BA%E6%9C%AC%E4%B8%8A%E8%BF%99%E4%BA%9B%E9%83%BD%E6%98%AF%E4%BD%BF%E7%94%A8%E4%BA%86LSTMs%E3%80%82%E5%AF%B9%E4%BA%8E%E5%A4%A7%E5%A4%9A%E6%95%B0%E4%BB%BB%E5%8A%A1%EF%BC%8C%E5%AE%83%E4%BB%AC%E7%9C%9F%E7%9A%84%E5%8F%AF%E4%BB%A5%E8%BE%BE%E5%88%B0%E6%9B%B4%E5%A5%BD%E7%9A%84%E6%95%88%E6%9E%9C%EF%BC%81%E5%86%99%E4%BA%86%E4%B8%80%E5%A0%86%E6%96%B9%E7%A8%8B%E5%BC%8F%EF%BC%8CLSTMs%E7%9C%8B%E8%B5%B7%E6%9D%A5%E5%BE%88%E5%90%93%E4%BA%BA%E3%80%82%E5%B8%8C%E6%9C%9B%E9%80%9A%E8%BF%87%E8%BF%99%E7%AF%87%E6%96%87%E7%AB%A0%E4%B8%AD%E4%B8%80%E6%AD%A5%E4%B8%80%E6%AD%A5%E7%9A%84%E5%89%96%E6%9E%90%EF%BC%8C%E8%83%BD%E6%9B%B4%E5%A5%BD%E7%90%86%E8%A7%A3%E5%AE%83%E4%BB%AC%E3%80%82&pic=&ralateUid=&language=zh_cn&rnd=1465805002167" width="22" height="16">摘要:作者早前提到了人們使用RNNs取得的顯著成效,基本上這些都是使用了LSTMs。對于大多數任務,它們真的可以達到更好的效果!寫了一堆方程式,LSTMs看起來很嚇人。希望通過這篇文章中一步一步的剖析,能更好理解它們。

遞歸神經網絡

人類并不是每時每刻都從頭開始思考。正如你閱讀這篇文章的時候,你是在理解前面詞語的基礎上來理解每個詞。你不會丟棄所有已知的信息而從頭開始思考。你的思想具有持續性。

傳統的神經網絡不能做到這點,而且這似乎也是它的主要缺陷。比如,你想對電影中每個點發生的事件類型進行分類。目前還不清楚傳統神經網絡如何利用之前事件的推理來得出后來事件。

遞歸神經網絡能夠解決這一問題。這些網絡中具有循環結構,能夠使信息持續保存。


遞歸神經網絡具有循環結構

在上圖中,一組神經網絡A,接收參數,輸出,循環A可以使信息從網絡的某個步驟中傳遞到下一個步驟。

這些循環使得遞歸神經網絡有些不可思議。不過,如果你進一步思考,可以發現,它們與常規神經網絡并非完全不同??梢詫⑦f歸神經網絡想象成是有多層相同網絡的神經網絡,每一層將信息傳遞給下一層。如果我們展開循環,就是這樣:


展開的遞歸神經網絡

這種鏈狀的性質表明,遞歸神經網絡與序列和列表密切相關。這是處理這種數據所使用的神經網絡的自然結構。

人們當然使用了它們!在過去的幾年里,在許多問題上使用RNNs已經取得了難以置信的成功,比如語音識別,語言建模,翻譯,圖像字幕,這樣的例子不勝枚舉。不過我不將討論RNNs的驚人壯舉,Andrej?Karpathy對此寫了篇非常棒的博客,遞歸神經網絡不可思議的有效性(The?Unreasonable?Effectiveness?of?Recurrent?Neural?Networks)。它們真是太了不起了。

成功的關鍵是使用了“LSTMs”,一種特殊的遞歸神經網絡,在許多任務中,它的表現要比標準遞歸神經網絡出色許多。幾乎所有基于遞歸神經網絡令人振奮的結果都是由它們實現的。這篇文章就將探討這些LSTMs。

長期依賴關系問題

RNNs呼吁的一點就是,它們可能將前期信息與當前任務連接,比如使用前面的視頻幀可能得出對當前幀的理解。如果RNNs能夠做到這點,它們會非常有用。但是它們能嗎?這得看情況。

有些時候,在執行當前任務時,我們只需要查看最近的信息。比如,考慮一個語言模型,試圖根據之前單詞預測下一個。如果我們想要預測“the?clouds?are?in?the?sky”中最后一個單詞,我們不需要更多的上下文——很明顯下一個單詞會是“sky”。在這種情況下,如果相關信息與預測位置的間隔比較小,RNNs可以學會使用之前的信息。


但我們也有需要更多上下文的情況??紤]試圖預測“I?grew?up?in?France…?I?speak?fluent?French.”中最后一個詞。最近信息顯示下一個詞可能是一門語言的名字,但是如果我們想要縮小選擇范圍,我們需要包含“法國”的那段上下文,從前面的信息推斷后面的單詞。相關信息與預測位置的間隔很大是完全有可能的。

不幸的是,隨著這種間隔的拉長,RNNs就會無法學習連接信息。


從理論上講,RNNs絕對能夠處理這樣的“長期依賴關系”。一個人可以仔細挑選參數來解決這種簡單的問題。不幸的是,實際上RNNs不能夠學習它們。這種問題被Hochreiter?(1991)【德國】和Bengio等人深入探討過,他們發現了造成這種可能的一些非常基本的原因。

值得慶幸的是,LSTMs沒有這個問題!

LSTM網絡

長短期記憶網絡——通常簡稱“LSTMs”——是一種特殊的RNN,能夠學習長期依賴關系。它們由Hochreiter和Schmidhuber?(1997)提出,在后期工作中又由許多人進行了調整和普及(除了原始作者之外,許多人為現代LSTM做出了貢獻,不完全統計:Felix?Gers,?Fred?Cummins,?Santiago?Fernandez,?Justin?Bayer,?Daan?Wierstra,?Julian?Togelius,?Faustian?Gomez,?Matteo?Gagliolo?和?Alex?Graves)。它們在大量問題上效果異常出色,現在正在廣泛使用。

LSTMs明確設計成能夠避免長期依賴關系問題。記住信息很長一段時間幾乎是它們固有的行為,而不是努力去學習!

所有的遞歸神經網絡都具有一連串重復神經網絡模塊的形式。在標準的RNNs中,這種重復模塊有一種非常簡單的結構,比如單個tanh層。


標準RNN中的重復模塊包含單個層

LSTMs同樣也有這種鏈狀的結構,但是重復模塊有著不同的結構。它有四層神經網絡層以特殊的方式相互作用,而不是單個神經網絡層。


LSTM中的重復模塊包含四個相互作用的神經網絡層

先別急著想問細節。我們之后會一步一步講解LSTM圖?,F在,我們先來熟悉下我們將要使用到的符號。

在上面的圖中,每條線表示一個完整向量,從一個節點的輸出到其他節點的輸入。粉紅色圓圈代表逐點操作,比如向量加法,而黃色框框表示的是已學習的神經網絡層。線條合并表示串聯,線條分叉表示內容復制并輸入到不同地方。

LSTMs核心理念

LSTMs的關鍵點是單元狀態,就是穿過圖中的水平線。

單元狀態有點像是個傳送帶。它貫穿整個鏈條,只有一些小的線性相互作用。這很容易讓信息以不變的方式向下流動。


LSTM有能力向單元狀態中移除或添加信息,通過結構來仔細管理稱為門限。

門限是有選擇地讓信息通過。它們由一個sigmoid神經網絡層和逐點乘法運算組成。


sigmoid層輸出0到1之間的數字,描述了每個成分應該通過門限的程度。0表示“不讓任何成分通過”,而1表示“讓所有成分通過!”。

LSTM有三種這樣的門限,來保護和控制單元狀態。

一步一步剖析LSTM

LSTM中第一步是決定哪些信息需要從單元狀態中拋棄。這項決策是由一個稱為“遺忘門限層”的sigmoid層決定的。它接收和,然后為單元狀態中的每個數字計算一個0到1之間的數字。1表示“完全保留”,而0則表示“完全拋棄”。

我們來回顧一下那個語言模型的例子,試圖根據前面所有的詞語來預測下一個詞。在這種問題中,單元狀態可能包含當前主語的性別,所以可以使用正確的代詞。當碰到一個新的主語時,我們希望它能夠忘記舊主語的性別。


接下來我們需要決定在單元狀態中需要存儲哪些新信息。這分為兩個部分。首先,一個叫做“輸入門限層”的sigmoid層決定哪些值需要更新。接下來,一個tanh層創建一個向量,包含新候選值,這些值可以添加到這個狀態中。下一步我們將會結合這兩者來創建一個狀態更新。

在語言模型的例子中,我們希望在單元狀態中添加新主語的性別,來替換我們忘記的舊主語性別。


現在來更新舊單元狀態了,輸入到新單元狀態。之前的步驟已經決定了需要做哪些事情,我們只需要實現這些事情就行了。

我們在舊狀態上乘以,忘記之前決定需要忘記的。然后我們加上,這就是新的候選值,它的規模取決于我們決定每個狀態值需要更新多少。

在語言模型的例子中,這里就是我們實際丟棄舊主語性別信息,根據之前步驟添加新信息的地方。


最后,我們需要決定需要輸出什么。這個輸出將會建立在單元狀態的基礎上,但是個過濾版本。首先,我們運行一個sigmoid層來決定單元狀態中哪些部分需要輸出。然后我們將單元狀態輸入到tanh函數(將值轉換成-1到1之間)中,然后乘以輸出的sigmoid門限值,所以我們只輸出了我們想要輸出的那部分。

對于語言模型例子來說,因為它只看到了一個主語,它可能想輸出與動詞相關的信息,為接下來出現的詞做準備。比如,它可能輸出主語是單數還是復數,那么我們知道接下來修飾動詞的應該成對。


長短期記憶變體

我目前所講述的還是非常常規的LSTM。但并不是所有的LSTMs都與上述的LSTM一樣。實際上,幾乎所有關于LSTMs的論文都稍有不同。雖然差異很小但也值得一談。

一種流行的LSTM變種,由Gers和Schmidhuber?(2000)提出,加入了“窺視孔連接”(peephole?connections)。這意味著門限層也將單元狀態作為輸入。


上圖中,所有的門限中都加入了窺視孔,但是許多論文都只使用部分窺視孔。

另一個變種就是使用耦合遺忘和輸入門限。我們不單獨決定遺忘哪些、添加哪些新信息,而是一起做出決定。在輸入的時候才進行遺忘。在遺忘某些舊信息時才將新值添加到狀態中。


稍微有戲劇性的LSTM變種是門限遞歸單元或GRU,由Cho等人(2014)提出。它將遺忘和輸入門限結合輸入到單個“更新門限”中。同樣還將單元狀態和隱藏狀態合并,并做出一些其他變化。所得模型比標準LSTM模型要簡單,這種做法越來越流行。


提出的深度門限RNNs(Depth?Gated?RNNs?)。當然還有其他解決長短期依賴關系問題的方法,比如Koutnik等人(2014)提出的Clockwork?RNNs?。

這些變種哪個是最好的?這些差異重要嗎?Greff等人(2015)針對流行的變種做了良好對比,發現它們其實都一樣。Jozefowicz等人(2015)對超過1萬種RNN架構做了測試,發現其中某些在特定任務上效果比LSTMs要好。

結論

早些時候,我提到了人們使用RNNs取得的顯著成效?;旧线@些都是使用了LSTMs。對于大多數任務,它們真的可以達到更好的效果!

寫了一堆方程式,LSTMs看起來很嚇人。希望通過這篇文章中一步一步的剖析,能更好理解它們。

LSTMs是我們使用RNNs的一個飛躍。那么很自然地會想:還有其他飛躍嗎?研究人員之間共同的想法是:“有的!還有其他飛躍,還有關注點(attention)!”。這個想法是,讓RNN中每一步都從更大的信息集中挑選信息作為輸入。比如,你使用RNN來創建一個標題來描述圖像,它可能會挑選圖像的一部分作為輸入,然后輸出信息。事實上,Xu等人(2015)這么做了——如果你想探索關注點這可能是個有趣的出發點!使用關注點還有一些其他令人興奮的結果,而且似乎還有其他的效果還沒被發現……

關注點并不是RNN研究中唯一令人振奮的地方。比如,Kalchbrenner等人(2015)提出的Grid?LSTMs似乎非常有前途。在生產模型——比如Gregor等人(2015),Chung等人(2015)和Bayer,Osendorfer(2015)中使用RNNs似乎同樣有趣。過去的幾年對遞歸神經網絡來說是激動人心的時期,而且今后更會如此!

致謝

我要感謝幫助我理解LSTMs的一群人,他們對網絡模型的結構圖進行了評論,并對這篇文章進行了反饋。

我非常感謝我在谷歌的同事提供的反饋,特別是Oriol?Vinyals,Greg?Corrado,Jon?Shlens,Luke?Vilnis,和Ilya?Sutskever。同樣感謝那些百忙之中給予我幫助的朋友和同事,Dario?Amodei,和Jacob?Steinhardt。我特別要感謝Kyunghyun?Cho,對我的圖表給出了非常周到的對應關系。

在寫這篇文章之前,我在我教的兩個神經網絡研討會上練習過解釋LSTMs。感謝參與其中每個人對我的耐心和給出的反饋。

原文鏈接:Understanding LSTM Networks(譯者/劉翔宇?審校/趙屹華 責編/周建丁?原創、翻譯投稿請聯系:zhoujd@csdn.Net,微信號:jianding_zhou)

譯者介紹:劉翔宇,中通軟開發工程師,關注機器學習、神經網絡、模式識別。?




總結

以上是生活随笔為你收集整理的长短记忆型递归神经网络LSTM的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 最新色站 | 高清国产mv在线观看 | 色 综合 欧美 亚洲 国产 | 免费看国产黄色片 | 高清国产午夜精品久久久久久 | 免费视频www在线观看网站 | 寡妇激情做爰呻吟 | 麻豆福利影院 | 黄色av网站在线观看 | 国产黄片一区二区三区 | h网站在线观看 | 国产99久| 日本丰满大乳奶做爰 | 亚洲av午夜精品一区二区三区 | 国产精品一区二区毛片 | 国产性―交―乱―色―情人 | 黄色免费网 | 天天摸日日干 | 男女猛烈无遮挡免费视频 | 欧美大色网 | 久久精品99久久久久久 | 大胸喷奶水www视频妖精网站 | 性史性dvd影片农村毛片 | 香蕉视频| 国产精品厕所 | 久久看视频 | 波多野结衣一区二区三区在线观看 | 中文精品一区二区三区 | 婷婷六月色 | 黄色同人网站 | 国产伦理吴梦梦伦理 | 亚洲精品男女 | 伦一理一级一a一片 | 欧美美女性生活 | 亚洲欧美国产视频 | 妞干网精品 | 美丽的小蜜桃2:美丽人生 | 国产乱人乱精一区二视频国产精品 | 四虎在线观看视频 | 又大又长粗又爽又黄少妇视频 | 日韩精品色 | 91麻豆产精品久久久久久 | 美国三级a三级18 | 欧美动态色图 | 亚洲国产97在线精品一区 | 欧美无极品| 精品人妻一区二区三区久久嗨 | 樱花电影最新免费观看国语版 | 日韩免费淫片 | 九九热播视频 | www在线视频| 欧美精品亚洲精品日韩精品 | 日韩一区二区久久 | 麻豆精品久久久久久久99蜜桃 | 欧美毛片基地 | 日韩美女黄色片 | 亚洲干 | 又色又爽又黄gif动态图 | 久久午夜鲁丝片午夜精品 | 777片理伦片在线观看 | 亚洲a∨无码无在线观看 | 欧美精品网址 | 国产 福利 在线 | 国产福利免费视频 | 亚洲第一色网 | 亚洲精品aⅴ中文字幕乱码 国产精品调教视频 | 最新中文字幕一区 | 少妇性bbb搡bbb爽爽爽欧美 | 长河落日电视连续剧免费观看01 | 性欧美大战久久久久久久 | 精品少妇久久久久久888优播 | 成人免费性生活视频 | 自拍偷拍综合 | 五月婷婷狠狠干 | 欧美日韩一区二区电影 | 日本伊人网 | 欧美三级在线播放 | 亚洲精品一卡 | 亚洲性图一区二区三区 | 色呦呦网站入口 | 少妇无码av无码专区在线观看 | 樱花电影最新免费观看国语版 | 91麻豆精品国产理伦片在线观看 | 欧美亚洲国产一区二区三区 | 免费黄色国产 | 成人黄色小说在线观看 | 经典毛片 | 综合天堂av久久久久久久 | 欧美日韩中文 | 精品国产99久久久久久 | 妺妺窝人体色www聚色窝仙踪 | 永久免费AV无码网站韩国毛片 | 天天操夜夜骑 | 国产精品av一区二区 | 麻豆一区在线 | 欧美精品久久久久久 | 国产精品18久久久久久无码 | 漂亮少妇高潮午夜精品 | 午夜色av|