日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

【深度学习】CV和NLP通吃!谷歌提出OmniNet:Transformers的全方位表示

發(fā)布時間:2025/3/12 pytorch 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【深度学习】CV和NLP通吃!谷歌提出OmniNet:Transformers的全方位表示 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

在機(jī)器翻譯、圖像識別等任務(wù)上表現(xiàn)SOTA!性能優(yōu)于Performer、ViT和Transformer-XL等網(wǎng)絡(luò)。

作者單位:谷歌Research和大腦團(tuán)隊等
論文:https://arxiv.org/pdf/2103.01075.pdf

本文提出了來自Transformer的全方位表示(OmniNet)。

在OmniNet中,不是維護(hù)嚴(yán)格的水平感受野,而是允許每個token都參與整個網(wǎng)絡(luò)中的所有token。此過程也可以解釋為一種極端或集中注意力機(jī)制的形式,該機(jī)制具有網(wǎng)絡(luò)整個寬度和深度的感受野。

為此,通過元學(xué)習(xí)器來學(xué)習(xí)全向注意力,這實質(zhì)上是另一個基于自注意力的模型。為了減輕完整的感受野注意力的計算成本,我們利用有效的自注意力模型,例如基于kernel的(Choromanski等人),low-rank的注意力(Wang等人)和/或Big Bird(Zaheer)等)。

Transformer架構(gòu)

Transformer塊接受N×d輸入,其中N表示序列中標(biāo)記的數(shù)量,d表示表示的大小。每個Transformer模塊都具有一個自我注意模塊和一個兩層前饋網(wǎng)絡(luò),在它們之間以位置方式應(yīng)用ReLU激活。

自我注意機(jī)制首先使用線性變換將每個輸入X投影到Q,K,V表示形式中,這些形式對應(yīng)于查詢,鍵和值。自我注意機(jī)制通常是多頭的,其中并行執(zhí)行多個相似的線性投影。第l層中每個自我關(guān)注頭h的輸出寫為:

其中yh,l是頭h在第l層的輸出,而dk是每個頭的大小。然后,將多個磁頭的輸出進(jìn)行級聯(lián),然后通過Wo,l進(jìn)行另一個線性變換,該變換將所有磁頭的級聯(lián)投影到dm。這是通過層歸一化和殘差連接來包裝的,可以寫為:

作為self- 注意模塊。

Feed Forward Layers 變壓器塊的FFN塊執(zhí)行兩層轉(zhuǎn)換,定義為:

其中W1,W2是FFN層的可訓(xùn)練參數(shù)(權(quán)重變換)。為了清楚起見,省略了偏置參數(shù)。

OmniNet網(wǎng)絡(luò)細(xì)節(jié)(建議看原文第三章3.2)

  • 提名代表

  • 保持因果關(guān)系和自動回歸解碼

  • 高效變壓器

  • 分區(qū)的單子網(wǎng)絡(luò)

  • 實驗結(jié)果

    在自回歸語言建模(LM1B,C4),機(jī)器翻譯, Long Range Arena(LRA)和圖像識別方面進(jìn)行了廣泛的實驗。實驗表明,OmniNet在這些任務(wù)上實現(xiàn)了相當(dāng)大的改進(jìn),包括在LM1B,WMT'14 En-De / En-Fr和 Long Range Arena上實現(xiàn)了最先進(jìn)的性能。

    此外,在Vision Transformers中使用全向表示可以顯著改善短時學(xué)習(xí)和微調(diào)設(shè)置中的圖像識別任務(wù)。

    往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機(jī)器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機(jī)器學(xué)習(xí)在線手冊深度學(xué)習(xí)筆記專輯《統(tǒng)計學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專輯 AI基礎(chǔ)下載機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)專輯 本站qq群851320808,加入微信群請掃碼:

    總結(jié)

    以上是生活随笔為你收集整理的【深度学习】CV和NLP通吃!谷歌提出OmniNet:Transformers的全方位表示的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。