日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

3.1 基础模型-深度学习第五课《序列模型》-Stanford吴恩达教授

發布時間:2025/4/5 pytorch 75 豆豆
生活随笔 收集整理的這篇文章主要介紹了 3.1 基础模型-深度学习第五课《序列模型》-Stanford吴恩达教授 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

基礎模型 (Basic Model)

在這一周,你將會學習seq2seqsequence to sequence)模型,從機器翻譯到語音識別,它們都能起到很大的作用,從最基本的模型開始。之后你還會學習集束搜索(Beam search)和注意力模型(Attention Model),一直到最后的音頻模型,比如語音。

現在就開始吧,比如你想通過輸入一個法語句子,比如這句 “Jane visite I’Afrique en septembre.”,將它翻譯成一個英語句子,“Jane is visiting Africa in September.”。和之前一樣,我們用 x<1>x^{<1>}x<1> 一直到 x<5>x^{<5>}x<5> 來表示輸入的句子的單詞,然后我們用 y<1>y^{<1>}y<1>y<6>y^{<6>}y<6> 來表示輸出的句子的單詞,那么,如何訓練出一個新的網絡來輸入序列 xxx 和輸出序列 yyy 呢?

這里有一些方法,這些方法主要都來自于兩篇論文,作者是Sutskever,Oriol VinyalsQuoc Le,另一篇的作者是Kyunghyun Cho,Bart van Merrienboer,Caglar Gulcehre,Dzmitry Bahdanau,Fethi Bougares,Holger SchwenYoshua Bengio

首先,我們先建立一個網絡,這個網絡叫做編碼網絡(encoder network)(上圖編號1所示),它是一個RNN的結構, RNN的單元可以是GRU 也可以是LSTM。每次只向該網絡中輸入一個法語單詞,將輸入序列接收完畢后,這個RNN網絡會輸出一個向量來代表這個輸入序列。之后你可以建立一個解碼網絡,我把它畫出來(上圖編號2所示),它以編碼網絡的輸出作為輸入,編碼網絡是左邊的黑色部分(上圖編號1所示),之后它可以被訓練為每次輸出一個翻譯后的單詞,一直到它輸出序列的結尾或者句子結尾標記,這個解碼網絡的工作就結束了。和往常一樣我們把每次生成的標記都傳遞到下一個單元中來進行預測,就像之前用語言模型合成文本時一樣。

深度學習在近期最卓越的成果之一就是這個模型確實有效,在給出足夠的法語和英語文本的情況下,如果你訓練這個模型,通過輸入一個法語句子來輸出對應的英語翻譯,這個模型將會非常有效。這個模型簡單地用一個編碼網絡來對輸入的法語句子進行編碼,然后用一個解碼網絡來生成對應的英語翻譯。


還有一個與此類似的結構被用來做圖像描述,給出一張圖片,比如這張貓的圖片(上圖編號1所示),它能自動地輸出該圖片的描述,一只貓坐在椅子上,那么你如何訓練出這樣的網絡?通過輸入圖像來輸出描述,像這個句子一樣。

方法如下,在之前的卷積網絡課程中,你已經知道了如何將圖片輸入到卷積神經網絡中,比如一個預訓練的AlexNet結構(上圖編號2方框所示),然后讓其學習圖片的編碼,或者學習圖片的一系列特征。現在幻燈片所展示的就是AlexNet結構,我們去掉最后的softmax單元(上圖編號3所示),這個預訓練的AlexNet結構會給你一個4096維的特征向量,向量表示的就是這只貓的圖片,所以這個預訓練網絡可以是圖像的編碼網絡。現在你得到了一個4096維的向量來表示這張圖片,接著你可以把這個向量輸入到RNN中(上圖編號4方框所示),RNN要做的就是生成圖像的描述,每次生成一個單詞,這和我們在之前將法語譯為英語的機器翻譯中看到的結構很像,現在你輸入一個描述輸入的特征向量,然后讓網絡生成一個輸出序列,或者說一個一個地輸出單詞序列。

事實證明在圖像描述領域,這種方法相當有效,特別是當你想生成的描述不是特別長時。據我所知,這種模型首先是由Junhua Mao,Wei Xu,Yi Yang,Jiang Wang,Zhiheng HuangAlan Yuille提出的,盡管有幾個團隊都幾乎在同一時間構造出了非常相似的模型,因為還有另外兩個團隊也在同一時間得出了相似的結論。我覺得有可能Mao的團隊和Oriol Vinyals,Alexander Toshev,Samy BengioDumitru Erhan,還有Andrej KarpathyFei-Fei Yi是同一個團隊。

現在你知道了基本的seq2seq模型是怎樣運作的,以及image to sequence模型或者說圖像描述模型是怎樣運作的。不過這兩個模型運作方式有一些不同,主要體現在如何用語言模型合成新的文本,并生成對應序列的方面。一個主要的區別就是你大概不會想得到一個隨機選取的翻譯,你想要的是最準確的翻譯,或者說你可能不想要一個隨機選取的描述,你想要的是最好的最貼切的描述,我們將在下節視頻中介紹如何生成這些序列。

總結

以上是生活随笔為你收集整理的3.1 基础模型-深度学习第五课《序列模型》-Stanford吴恩达教授的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。