【深度学习】CV和NLP通吃!谷歌提出OmniNet:Transformers的全方位表示
在機(jī)器翻譯、圖像識別等任務(wù)上表現(xiàn)SOTA!性能優(yōu)于Performer、ViT和Transformer-XL等網(wǎng)絡(luò)。
論文:https://arxiv.org/pdf/2103.01075.pdf
本文提出了來自Transformer的全方位表示(OmniNet)。
在OmniNet中,不是維護(hù)嚴(yán)格的水平感受野,而是允許每個token都參與整個網(wǎng)絡(luò)中的所有token。此過程也可以解釋為一種極端或集中注意力機(jī)制的形式,該機(jī)制具有網(wǎng)絡(luò)整個寬度和深度的感受野。
為此,通過元學(xué)習(xí)器來學(xué)習(xí)全向注意力,這實質(zhì)上是另一個基于自注意力的模型。為了減輕完整的感受野注意力的計算成本,我們利用有效的自注意力模型,例如基于kernel的(Choromanski等人),low-rank的注意力(Wang等人)和/或Big Bird(Zaheer)等)。
Transformer架構(gòu)
Transformer塊接受N×d輸入,其中N表示序列中標(biāo)記的數(shù)量,d表示表示的大小。每個Transformer模塊都具有一個自我注意模塊和一個兩層前饋網(wǎng)絡(luò),在它們之間以位置方式應(yīng)用ReLU激活。
自我注意機(jī)制首先使用線性變換將每個輸入X投影到Q,K,V表示形式中,這些形式對應(yīng)于查詢,鍵和值。自我注意機(jī)制通常是多頭的,其中并行執(zhí)行多個相似的線性投影。第l層中每個自我關(guān)注頭h的輸出寫為:
其中yh,l是頭h在第l層的輸出,而dk是每個頭的大小。然后,將多個磁頭的輸出進(jìn)行級聯(lián),然后通過Wo,l進(jìn)行另一個線性變換,該變換將所有磁頭的級聯(lián)投影到dm。這是通過層歸一化和殘差連接來包裝的,可以寫為:
作為self- 注意模塊。
Feed Forward Layers 變壓器塊的FFN塊執(zhí)行兩層轉(zhuǎn)換,定義為:
其中W1,W2是FFN層的可訓(xùn)練參數(shù)(權(quán)重變換)。為了清楚起見,省略了偏置參數(shù)。
OmniNet網(wǎng)絡(luò)細(xì)節(jié)(建議看原文第三章3.2)
提名代表
保持因果關(guān)系和自動回歸解碼
高效變壓器
分區(qū)的單子網(wǎng)絡(luò)
實驗結(jié)果
在自回歸語言建模(LM1B,C4),機(jī)器翻譯, Long Range Arena(LRA)和圖像識別方面進(jìn)行了廣泛的實驗。實驗表明,OmniNet在這些任務(wù)上實現(xiàn)了相當(dāng)大的改進(jìn),包括在LM1B,WMT'14 En-De / En-Fr和 Long Range Arena上實現(xiàn)了最先進(jìn)的性能。
此外,在Vision Transformers中使用全向表示可以顯著改善短時學(xué)習(xí)和微調(diào)設(shè)置中的圖像識別任務(wù)。
往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機(jī)器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機(jī)器學(xué)習(xí)在線手冊深度學(xué)習(xí)筆記專輯《統(tǒng)計學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專輯 AI基礎(chǔ)下載機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)專輯 本站qq群851320808,加入微信群請掃碼:總結(jié)
以上是生活随笔為你收集整理的【深度学习】CV和NLP通吃!谷歌提出OmniNet:Transformers的全方位表示的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 钉钉电脑版如何申请调休 钉钉电脑版申请调
- 下一篇: windows7系统设置动态屏保的教程