日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

transformers的近期工作成果综述

發(fā)布時(shí)間:2023/12/14 编程问答 47 豆豆
生活随笔 收集整理的這篇文章主要介紹了 transformers的近期工作成果综述 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

基于 transformer 的雙向編碼器表示(BERT)和微軟的圖靈自然語言生成(T-NLG)等模型已經(jīng)在機(jī)器學(xué)習(xí)世界中廣泛的用于自然語言處理(NLP)任務(wù),如機(jī)器翻譯、文本摘要、問題回答、蛋白質(zhì)折疊預(yù)測(cè),甚至圖像處理任務(wù)。

在本文中,對(duì)基于transformer 的工作成果做了一個(gè)簡(jiǎn)單的總結(jié),將最新的transformer 研究成果(特別是在2021年和2022年發(fā)表的研究成果)進(jìn)行詳細(xì)的調(diào)研。

這張圖與一篇調(diào)查論文[Tay 2022]中的圖相似,但被調(diào)transformers會(huì)更新并且它們的整體分類也有很大的不同。

如圖所示,主要類別包括計(jì)算復(fù)雜度、魯棒性、隱私性、近似性和模型壓縮等等。本文文字和專業(yè)術(shù)語較多,并且均翻譯自論文原文,如有錯(cuò)誤(很可能)請(qǐng)諒解。

計(jì)算復(fù)雜度

一些研究方向是以各種方式解決transformer的O(N2)計(jì)算復(fù)雜度。transformer的關(guān)鍵問題之一是它與輸入序列長(zhǎng)度相關(guān)的二次復(fù)雜度。這意味著我們必須為每一層和注意頭計(jì)算N*N個(gè)注意矩陣。人們嘗試了各種方法來降低這種O(N2)復(fù)雜度,包括使用緩存體系結(jié)構(gòu)。

Sparse transformer是解決這種復(fù)雜性的流行方法之一。每個(gè)輸出位置從輸入位置的一個(gè)子集計(jì)算權(quán)重。如果子集是√(N),那么transformer的復(fù)雜度降低到O(N *√(N)),并允許它處理更大范圍的依賴關(guān)系。

Longformer使用了帶窗口的局部注意力(對(duì)于窗口大小為w的窗口,每個(gè)令牌會(huì)注意到兩邊的w/2個(gè)令牌,而不是整個(gè)輸入)并且使用特殊令牌的任務(wù)驅(qū)動(dòng)的全局注意力進(jìn)行組合。

另一項(xiàng)被稱為BigBird [Manzil 2020]的工作使用了圖稀疏化技術(shù)。它使用一種稱為Watts-Strogatz圖的特殊圖,它近似于一個(gè)完整的圖可以實(shí)現(xiàn)輸入序列的線性復(fù)雜度。作者表明在標(biāo)準(zhǔn)精度假設(shè)下,BigBird是圖靈完備的。他們還評(píng)估BigBird在遠(yuǎn)距離依賴的任務(wù)上的表現(xiàn),特別是在提取基因組序列(如DNA)和預(yù)測(cè)結(jié)果染色質(zhì)譜方面

Linformer使用線性投影和低秩因子分解的組合逼近點(diǎn)積注意運(yùn)算[Wang2020]。

上面許多基于稀疏矩陣操作的transformer可能需要稀疏矩陣乘法操作,這種方式并不是在所有體系結(jié)構(gòu)上都可用。他們也傾向于堆疊更多的注意力層來彌補(bǔ)稀疏性,從而導(dǎo)致總體上的算力的增加。對(duì)于某些操作,如softmax操作也可能不容易;還有多項(xiàng)式probit運(yùn)算也不容易稀疏化。

谷歌提出了一個(gè)廣義注意框架Performer,可以根據(jù)不同的相似性度量或內(nèi)核來指定廣泛的注意力機(jī)制。他們通過積極的正交隨機(jī)特征(Favor+)算法來實(shí)現(xiàn)注意力的機(jī)制。他們還表明可以通過指數(shù)函數(shù)和隨機(jī)高斯投影的組合來近似普通的softmax注意。Performer在蛋白質(zhì)序列預(yù)測(cè)任務(wù)等方面優(yōu)于標(biāo)準(zhǔn)模型。

Wang等[Wang 2021]提出了一種用于無卷積的密集預(yù)測(cè)的金字塔視覺transformer(PVT)。這一問題克服了基于VIT的模型在將密集的預(yù)測(cè)任務(wù)時(shí)遇到了困難,PVT有助于各種像素級(jí)密度預(yù)測(cè),并且不需要卷積和非最大抑制,如目標(biāo)檢測(cè)方法。采用漸進(jìn)式收縮金字塔和空間減少注意力可以很容易地連接transformer。最后在圖像分類、目標(biāo)檢測(cè)、實(shí)例和語義分割等任務(wù)中PVT也是可用的。

Liu等人[Liu 2021]討論了transformer從語言領(lǐng)域到視覺領(lǐng)域的適應(yīng)問題,方法包括大量視覺實(shí)體的差異和與文本中的文字相比的圖像的高分辨率像素差異。為了解決這個(gè)問題,作者提出了Swin Transformer [Lui 2021],這是一種分層方法,其表示是使用移位窗口計(jì)算。該技術(shù)更有效地克服了自注意力局部窗口不重疊的問題。

Chu等人[Chu 2021]討論了空間注意對(duì)于transformer在各種任務(wù)中的性能成功的重要性。作者提出了兩個(gè)簡(jiǎn)單而高效的體系結(jié)構(gòu):twin - pcpvt和twin - svt。twin -pcpvt使用可分離的深度卷積注意機(jī)(depth-wise convolution attention machine),又被稱為空間分離自注意力(spatial-separable self-attention - SSSA)。SSSA使用兩種類型的注意力操作:本地分組的自注意力(LSA)和全局次采樣的注意力(GSA)。LSA處理細(xì)粒度和短距離信息,而GSA則處理長(zhǎng)距離序列和全局信息。另一個(gè)方法twin - svt同時(shí)使用LSA和帶有矩陣乘法的GSA。

光譜的復(fù)雜性

通過將自注意網(wǎng)絡(luò)替換為混合輸入令牌的線性轉(zhuǎn)換,可以設(shè)計(jì)高效的transformer來加速編碼器架構(gòu)。transformer的自注意層被參數(shù)化的傅里葉變換(Fnet)取代[Lee-Thorp 2022],然后是一個(gè)非線性和前饋網(wǎng)絡(luò)。與BERT相比,該網(wǎng)絡(luò)速度快80%,可以達(dá)到傳統(tǒng)transformer性能的92%到97%。

The Global Frequency network(GFnet) [Rao 2022]提出了一種用于令牌混合的深度全局卷積。GFnet涉及三個(gè)步驟:通過快速傅里葉變換(FFT)進(jìn)行空間令牌混合、頻率門控和反FFT進(jìn)行令牌分解。GFnet不涉及信道混合,隨著序列長(zhǎng)度的增加,對(duì)于高像素的圖像來說消耗非常大,而且不具有自適應(yīng)能力。

Guibias等人[Guibias 2022]將令牌混合任務(wù)定義為一種操作符學(xué)習(xí)任務(wù),該任務(wù)是學(xué)習(xí)在無限尺寸空間中連續(xù)函數(shù)之間的映射。Li等人[Li 2020]討論了使用傅里葉神經(jīng)算符(FNO)求解偏微分方程(PDE)。FNO在連續(xù)域中工作良好。

將FNO應(yīng)用于高分辨率圖像輸入的視覺域,需要對(duì)PDE的FNO設(shè)計(jì)體系結(jié)構(gòu)進(jìn)行修改。這是因?yàn)楦叻直媛穲D像由于邊緣和其他結(jié)構(gòu)而具有不連續(xù)性。信道混合FNO與信道大小有關(guān),具有二次復(fù)雜度。信道混合權(quán)重采用塊對(duì)角線結(jié)構(gòu)來解決信道混合問題。作者在MLP層的令牌之間共享權(quán)重以提高參數(shù)效率,并使用軟閾值在頻域引入稀疏性以進(jìn)行泛化。這些解決方案結(jié)合稱為自適應(yīng)傅里葉神經(jīng)算子(AFNO)。

Bai等人[Bai 2022]提出了HAT方法(High-frequency components via Adversarial Training),該方法在訓(xùn)練階段對(duì)組件進(jìn)行高頻擾動(dòng)。HAT方法通過添加對(duì)抗性擾動(dòng)改變訓(xùn)練圖像的高頻成分,然后用改變后的圖像訓(xùn)練ViT [Bai 2022]模型,這樣可以提高模型性能,使模型更魯棒。

魯棒性

Shao等[Shao 2021]利分析了transformer模型的魯棒性。作者使用白盒攻擊進(jìn)行了一個(gè)實(shí)驗(yàn)。他們觀察到與卷積神經(jīng)網(wǎng)絡(luò)(CNNs)相比,ViT具有更好的對(duì)抗魯棒性。ViT特征包含低層信息,對(duì)對(duì)抗攻擊提供了優(yōu)越的魯棒性,并指出與增加尺寸或增加層數(shù)的純transformer模型相比,cnn和transformer的組合具有更好的魯棒性。他們還發(fā)現(xiàn)預(yù)訓(xùn)練更大的數(shù)據(jù)集并不能提高魯棒性。對(duì)于一個(gè)穩(wěn)健的模型,情況正好相反。

Bhojanapalli等人[Bhojanapalli 2021]調(diào)查了ViT模型和resnet模型針對(duì)對(duì)抗實(shí)例、自然實(shí)例和常見破壞的各種魯棒性度量。作者研究了對(duì)輸入和模型擾動(dòng)的魯棒性。無論是從輸入還是從模型中去除任何一層,transformer都是魯棒的。

Paul等人[Paul 2022]研究了ViT [Dosovitskiy 2020]、cnn和Big Transformer[Kolesnikov 2020]方法的魯棒性。Paul等人[Paul 2022]在ImageNet數(shù)據(jù)集上對(duì)ViTs的魯棒性進(jìn)行了基準(zhǔn)測(cè)試。結(jié)果在表r中。通過6個(gè)實(shí)驗(yàn),作者驗(yàn)證了與CNN和Big Transformer相比,ViT在魯棒性方面有了提高。這些實(shí)驗(yàn)的結(jié)果包括:

  • 實(shí)驗(yàn)1:注意力是提高魯棒性的關(guān)鍵。
  • 實(shí)驗(yàn)2:預(yù)訓(xùn)練的作用很重要。
  • 實(shí)驗(yàn)3:ViT對(duì)圖像遮蔽具有較好的魯棒性。
  • 實(shí)驗(yàn)4:傅里葉頻譜分析顯示ViT的靈敏度較低。
  • 實(shí)驗(yàn)5:對(duì)抗性擾動(dòng)在能量譜中擴(kuò)散得更廣。
  • 實(shí)驗(yàn)6:ViT對(duì)輸入擾動(dòng)有更平滑的損失。

根據(jù)Park等人[Park 2022]的研究,與cnn相比ViT [Dosovitskiy 2020]在捕獲圖像高頻成分方面的效率較低。HAT [Bai 2022]是對(duì)現(xiàn)有transformer模型在頻率角度的影響進(jìn)行進(jìn)一步研究的結(jié)果。HAT使用RandAugment方法對(duì)輸入圖像的進(jìn)行高頻分量擾動(dòng)。Wu等人[Wu 2022]研究了易受對(duì)抗實(shí)例影響的transformer模型的問題。這個(gè)問題(對(duì)對(duì)抗性噪聲的脆弱性)在cnn中是通過對(duì)抗性訓(xùn)練來處理的。但在transformer中,由于自注意計(jì)算的二次復(fù)雜度,對(duì)抗訓(xùn)練的計(jì)算成本很高。AGAT方法采用了一種有效的注意引導(dǎo)對(duì)抗機(jī)制,在對(duì)抗訓(xùn)練過程中使用注意引導(dǎo)下降策略去除每一層嵌入的確定性補(bǔ)丁。

隱私

預(yù)訓(xùn)練的transformer模型部署在云上?;谠频哪P筒渴鹬械囊粋€(gè)主要問題與數(shù)據(jù)中隱私問題有關(guān)。主要的隱私問題是用戶數(shù)據(jù)(如搜索歷史、醫(yī)療記錄和銀行賬戶)的暴露。目前的研究重點(diǎn)是在transformer模型推理中保護(hù)隱私。

論文[Huang 2020]介紹了TextHide,一種保護(hù)隱私的聯(lián)邦學(xué)習(xí)技術(shù),但這種方法適用于基于句子的任務(wù),如機(jī)器翻譯、情緒分析、轉(zhuǎn)述生成任務(wù)),而不是基于令牌的任務(wù)(如名稱實(shí)體識(shí)別和語義角色標(biāo)記)。

DP-finetune [Kerrigan 2020]差分隱私(DP)方法允許量化保護(hù)數(shù)據(jù)敏感性的程度。但是訓(xùn)練DP算法會(huì)降低模型的質(zhì)量,但是可以在私有數(shù)據(jù)集上使用公共基礎(chǔ)模型進(jìn)行調(diào)優(yōu)來部分解決。

Gentry等人[Gentry 2009]提出了一種用homomorphic encryption(HE)中的密文保護(hù)隱私的方法。但是transformer的模型中GELU [Hendrycks 2016]激活的計(jì)算復(fù)雜性,HE解決方案只支持加法和乘法。

論文[Chen 2022]在transformer中基于HE [Boemer 2019, Boemer 2020]的解上提出了一種通過級(jí)數(shù)逼近的The - x方法。the - x方法在SoftMax和GELU等層的幫助下,用一系列近似代替非多項(xiàng)式操作,去掉池器層,添加歸一化層,使用知識(shí)蒸餾技術(shù)。THE-X方法使用BERT-Tiny Model進(jìn)行評(píng)估[Wang 2018],并對(duì)CONLL2003 [Sang2003]任務(wù)進(jìn)行了基準(zhǔn)測(cè)試。

Li等人[Li 2022]使用差分隱私算法解決了性能下降和高計(jì)算開銷的問題。這樣可以使用更大的預(yù)訓(xùn)練語言模型來處理,也可以通過在中等語料庫(kù)上使用DP優(yōu)化進(jìn)行微調(diào)的對(duì)齊預(yù)訓(xùn)練過程來進(jìn)行微調(diào)。

近似性

論文[Ruthotto 2019]是最早為ResNets等深度神經(jīng)網(wǎng)絡(luò)提供基于偏微分方程(PDEs)的理論基礎(chǔ)的論文之一。更具體地說,作者證明了殘差cnn可以解釋為時(shí)空微分方程的離散化。在理論表征的基礎(chǔ)上,Ruthotto還提出了具有特殊性質(zhì)的雙曲和拋物線cnn等新模型。

殘差網(wǎng)絡(luò)也被解釋為常微分方程的歐拉離散化。但歐拉法求解精度不高,由于是一階方法,存在截?cái)嗾`差。ODE Transformers [Bei 2022]的作者使用了經(jīng)典的高階方法(Runge Kutta)來構(gòu)建Transformer塊。他們?cè)谌齻€(gè)序列生成任務(wù)上評(píng)估了ODE Transformers 。這些任務(wù)證明了ODE是有效的,包括抽象摘要、機(jī)器翻譯和語法糾正。在這個(gè)方向上的另一項(xiàng)努力是TransEvolve [Dutta 2021],它提供了一個(gè)Transformer架構(gòu),與ODE類似,但以多粒子動(dòng)態(tài)系統(tǒng)為模型。

Transformers 已經(jīng)被證明相當(dāng)于通用計(jì)算引擎[Kevin 2022]。作者提出了一種稱為Frozen pretrain transformer (FPT)的結(jié)構(gòu),它可以在單一模態(tài)(如用于語言建模的文本數(shù)據(jù))上進(jìn)行訓(xùn)練,并識(shí)別跨模態(tài)有用的抽象(如特征表示)。他們采用GPT,只對(duì)自然語言數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,并對(duì)其輸入和輸出層以及層歸一化參數(shù)和位置嵌入進(jìn)行微調(diào)。這使得FPT在完成蛋白質(zhì)折疊預(yù)測(cè)、數(shù)值計(jì)算甚至圖像分類等各種任務(wù)時(shí),可以與完全從零開始訓(xùn)練的transformer進(jìn)行比較。

模型壓縮

Touvron等人[Touvron 2021]提出了一種基于蒸餾技術(shù)(Deit)的高效transformer模型。它使用一種依賴于蒸餾令牌的師生策略,以確保學(xué)生通過注意力從老師那里學(xué)習(xí)。

Bao等人[Bao 2021]向預(yù)訓(xùn)練的VIT提出了一個(gè)遮蔽圖像模型任務(wù)。作者提出了一種基于自監(jiān)督的視覺表示模型,即來自圖像transformer的雙向編碼器表示(BEiT),它遵循了為自然語言處理領(lǐng)域開發(fā)的BERT [Kenton 2019]方法。在這種方法中,每個(gè)圖像被認(rèn)為是兩個(gè)視圖:一個(gè)是大小為16 x 16像素的圖像補(bǔ)丁,另一個(gè)是離散的可視標(biāo)記。將原始圖像標(biāo)記為可視標(biāo)記,并對(duì)部分圖像補(bǔ)丁進(jìn)行隨機(jī)掩碼,然后將其饋送給預(yù)訓(xùn)練的骨干transformer。訓(xùn)練BEiT后,模型可以針對(duì)下游任務(wù)進(jìn)行微調(diào)。

引用

[Alexey 2021] Dosovitskiy, Alexey, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit and Neil Houlsby. “An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale.”, International Conference on Learning Representation, 2021.

[Ashish 2017] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, ?ukasz Kaiser, and Illia Polosukhin. 2017. Attention is all you need. In Proceedings of the 31st International Conference on Neural Information Processing Systems (NIPS’17). Curran Associates Inc., Red Hook, NY, USA, 6000–6010.

[Bai 2022]Bai, Jiawang, Liuliang Yuan, Shutao Xia, Shuicheng Yan, Zhifeng Li and W. Liu. “Improving Vision Transformers by Revisiting High-frequency Components.” Accepted to European Conference on Computer Vision 2022, available from https://arxiv.org/abs/2204.00993.

[Beltagy 2020] Beltagy, I., Peters, M. E., and Cohan, A., “Longformer: The Long-Document Transformer”, arXiv e-prints, 2020.

[Bei 2022] Bei Li, Quan Du, Tao Zhou, Yi Jing, Shuhan Zhou, Xin Zeng, Tong Xiao, Jingbo Zhu, Xuebo Liu, Min Zhang, “ODE Transformer: An Ordinary Differential Equation-Inspired Model for Sequence Generation”, 60th Annual Meeting of the Association of Computational Linguistics (ACL) (1) 2022: 8335–835.

[Bhojanapalli 2021] Bhojanapalli, S., Chakrabarti, A., Glasner, D., Li, D., Unterthiner, T., Veit, A.: Understanding robustness of transformers for image classification. In: Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 10231–10241 (2021).

[Boemer 2019] Boemer, F., Lao, Y., Cammarota, R., Wierzynski, C.: ngraph-HE: a graph compiler for deep learning on homomorphically encrypted data. In: Proceedings of the 16th ACM International Conference on Computing Frontiers, pp. 3–13 (2019).

[Boemer 2020] Boemer, F., Cammarota, R., Demmler, D., Schneider, T., Yalame, H.: Mp2ml: A mixed-protocol machine learning framework for private inference. In: Proceedings of the 15th International Conference on Availability, Reliability and Security, pp. 1–10 (2020).

[Chen 2022] Chen, T., Bao, H., Huang, S., Dong, L., Jiao, B., Jiang, D., Zhou, H., Li, J., Wei, F.: The-x: Privacy-preserving transformer inference with homomorphic encryption. In: Findings of the Association for Computational Linguistics: ACL 2022, pp. 3510–3520 (2022)

[Chu 2021] Chu, Xiangxiang & Tian, Zhi & Wang, Yuqing & Zhang, Bo & Ren, Haibing & Wei, Xiaolin & Xia, Huaxia & Shen, Chunhua. (2021). Twins: Revisiting Spatial Attention Design in Vision Transformers, NeurIPS 2021.

[Dosovitskiy 2020] Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S., et al.: An image is worth 16x16 words: Transformers for image recognition at scale. In: International Conference on Learning Representations (2020).

[Dutta 2021] Subhabrata Dutta, Tanya Gautam, Soumen Chakrabarti, Tanmoy Chakraborty: Redesigning the Transformer Architecture with Insights from Multi-particle Dynamical Systems. NeurIPS 2021: 5531–5544.

[Gentry 2009] Gentry, C.: Fully homomorphic encryption using ideal lattices. In: Proceedings of the Forty-first Annual ACM Symposium on Theory of Computing, pp. 169–178 (2009)

[Guibas 2021] Guibas, J., Mardani, M., Li, Z., Tao, A., Anandkumar, A., Catanzaro, B.: Efficient token mixing for transformers via adaptive Fourier Neural operators. In: International Conference on Learning Representations (2021).

[Hendrycks 2016] Hendrycks, D., Gimpel, K.: Bridging nonlinearities and stochastic regularizers with gaussian error linear units (2016).

[Huang 2020] Huang, Y., Song, Z., Chen, D., Li, K., Arora, S.: Texthide: Tackling data privacy in language understanding tasks. In: Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1368–1382 (2020).

[Hugo 2021] Touvron, H., Cord, M., Douze, M., Massa, F., Sablayrolles, A. & Jegou, H. (2021). Training data-efficient image transformers distillation through attention, Proceedings of the 38th International Conference on Machine Learning, in Proceedings of Machine Learning Research, 139:10347–10357 Available from https://proceedings.mlr.press/v139/touvron21a.html.

[Kevin 2022] Kevin Lu, Aditya Grover, Pieter Abbeel, Igor Mordatch, “Frozen Pretrained Transformers as Universal Computation Engines,” Association for Advancement of Artificial Intelligence, AAAI 2022.

[Kerrigan 2020] Kerrigan, G., Slack, D., Tuyls, J.: Differentially private language models benefit from public pre-training. In: Proceedings of the Second Workshop Springer Nature 2021 LATEX template Survey on Efficient Transformers: Model, Datasets, and Evalution methods 25 on Privacy in NLP, pp. 39–45 (2020).

[Kolesnikov 2020] Kolesnikov, A., Beyer, L., Zhai, X., Puigcerver, J., Yung, J., Gelly, S., Houlsby, N.: Big transfer (bit): General visual representation learning. In: European Conference on Computer Vision, pp. 491–507 (2020). Springer.

[Lee-Thorp 2022] Lee-Thorp, J., Ainslie, J., Eckstein, I., Ontanon, S.: Fnet: Mixing tokens with Fourier Transforms, Proceedings of the North Americal Chapter of Association for Computational Linguistics NAACL, 2022.

[Li 2020] Li, Z., Kovachki, N.B., Azizzadenesheli, K., Bhattacharya, K., Stuart, A., Anandkumar, A., et al.: Fourier neural operator for parametric partial differential equations. In: International Conference on Learning Representations (2020).

[Li 2022] Li, X., Tramer, F., Liang, P., Hashimoto, T.: Large language models can be strong differentially private learners. In: International Conference on Learning Representations (2022).

[Liu 2021] Liu, Ze, Yutong Lin, Yue Cao, Han Hu, Yixuan Wei, Zheng Zhang, Stephen Lin, and Baining Guo. “Swin transformer: Hierarchical vision transformer using shifted windows.” In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 10012–10022. 2021.

[Manzil 2020] Manzil Zaheer, Guru Guruganesh, Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, and Amr Ahmed. 2020. Big bird: transformers for longer sequences. In Proceedings of the 34th International Conference on Neural Information Processing Systems (NIPS’20). Curran Associates Inc., Red Hook, NY, USA, Article 1450, 17283–17297.

[Park 2022] Park, Namuk and Songkuk Kim. “How Do Vision Transformers Work?” ArXiv abs/2202.06709 (2022), proceedings of International Conference on Learning Representations (ICLR 2022).

[Paul 2022] Paul, S., Chen, P.-Y.: Vision transformers are robust learners. In: Proceedings of the AAAI Conference on Artificial Intelligence, vol. 36, pp. 2071–2081 (2022).

[Rao 2021] Rao, Y., Zhao, W., Zhu, Z., Lu, J., Zhou, J.: Global filter networks for image classification. Advances in Neural Information Processing Systems 34, 980–993 (2021).

[Ruthotto 2019] Ruthotto, L., & Haber, E. (2019). Deep Neural Networks Motivated by Partial Differential Equations. Journal of Mathematical Imaging and Vision, 62, 352–364.

[Sang 2003] Sang, E.T.K., De Meulder, F.: Introduction to the conll-2003 shared task: Language-independent named entity recognition. In: Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003, pp. 142–147 (2003).

[Shao 2022] Shao, Rulin, Zhouxing Shi, Jinfeng Yi, Pin-Yu Chen and Cho-Jui Hsieh. “On the Adversarial Robustness of Vision Transformers.” ArXiv abs/2103.15670 (2021).

[Sinong 2020] Sinong Wang, Belinda Z. Li, Madian Khabsa, Han Fang, Hao Ma: Linformer: Self-Attention with Linear Complexity. CoRR abs/2006.04768 (2020).

[Stanislaw 2020] Stanislaw Jastrzebski, Maciej Szymczak, Stanislav Fort, Devansh Arpit, Jacek Tabor, Kyunghyun Cho, Krzysztof J. Geras: The Break-Even Point on Optimization Trajectories of Deep Neural Networks. CoRR abs/2002.09572 (2020).

[Tay 2021a] Tay, Yi, Mostafa Dehghani, Samira Abnar, Yikang Shen, Dara Bahri, Philip Pham, Jinfeng Rao, Liu Yang, Sebastian Ruder, and Donald Metzler. “Long range arena: A benchmark for efficient transformers.” International Conference on Learning Representations (2021).

[Tay 2022] Yi Tay, Mostafa Dehghani, Dara Bahri, and Donald Metzler. 2022. Efficient Transformers: A Survey. ACM Computing Surveys, Just Accepted (April 2022). https://doi.org/10.1145/3530811

[Wang 2018] Wang, A., Singh, A., Michael, J., Hill, F., Levy, O., Bowman, S.R.: Glue: A multi-task benchmark and analysis platform for natural language understanding. In: International Conference on Learning Representations (2018).

[Wang 2021] Wang, Wenhai, Enze Xie, Xiang Li, Deng-Ping Fan, Kaitao Song, Ding Liang, Tong Lu, Ping Luo, and Ling Shao. “Pyramid vision transformer: A versatile backbone for dense prediction without convolutions.” In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 568–578. 2021.

[Wei 2022] Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E., Hashimoto, T., Vinyals, O., Liang, P., Dean, J., & Fedus, W. (2022). Emergent Abilities of Large Language Models. ArXiv, abs/2206.07682.

[Wu 2022] Wu, B., Gu, J., Li, Z., Cai, D., He, X., Liu, W.: Towards efficient adversarial training on vision transformers. arXiv preprint arXiv:2207.10498 (2022).

[Yu 2022] Yu, D., Naik, S., Backurs, A., Gopi, S., Inan, H.A., Kamath, G., Kulkarni, J., Lee, Y.T., Manoel, A., Wutschitz, L., et al.: Differentially private fine-tuning of language models. In: International Conference on Learning Representations (2022).

[Ze 2021] Ze Liu, Yutong Lin, Yue Cao, Han Hu, Yixuan Wei, Zheng Zhang, Stephen Lin, and Baining Guo. Swin transformer: Hierarchical vision transformer using shifted windows. In Proc. IEEE International Conference Computer Vision, pages 10012–10022, 2021.

https://avoid.overfit.cn/post/5f3133d94003428d95c54ef8ef8b2cda

作者:Dr. Vijay Srinivas Agneeswaran

總結(jié)

以上是生活随笔為你收集整理的transformers的近期工作成果综述的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

国偷自产中文字幕亚洲手机在线 | 成人av中文字幕在线观看 | 久久久精品成人 | 丁香久久激情 | 男女激情免费网站 | 涩涩网站免费 | 亚洲妇女av | 99综合影院在线 | 丁香六月久久综合狠狠色 | 干av在线 | 久久a久久 | 一区视频在线 | 日韩色av色资源 | 天天插天天爽 | 国产九九热视频 | 亚洲六月丁香色婷婷综合久久 | 久久国产女人 | 九精品 | 亚洲一区二区视频在线播放 | 国产视频不卡 | 一级性av | 手机成人av在线 | 麻豆91精品91久久久 | a黄色 | 一区二区三区电影大全 | 精品国产精品久久一区免费式 | 日韩精品视频免费专区在线播放 | 亚洲国产欧美在线看片xxoo | 欧美日本不卡高清 | 色多多视频在线观看 | 欧美日韩超碰 | 亚洲乱码在线 | 成 人 黄 色视频免费播放 | 91激情 | 中文字幕在线字幕中文 | 激情在线五月天 | 国产在线观看你懂得 | 国内精品久久久久久久久久清纯 | 在线之家官网 | 日韩毛片在线一区二区毛片 | 日本三级香港三级人妇99 | 521色香蕉网站在线观看 | 亚洲专区一二三 | 中文字幕你懂的 | 色婷婷亚洲精品 | 香蕉视频在线免费看 | 国产在线成人 | 欧美激情精品久久久久 | 一区二区三区在线播放 | 91香蕉视频720p | 中文字幕在线观看av | 九热精品 | 天天干天天拍天天操天天拍 | 国产亚洲欧美日韩高清 | 国产精品久久久久三级 | 碰超人人| 最新日韩在线 | 日韩精品一区二区免费视频 | 欧美午夜精品久久久久久浪潮 | 日韩色视频在线观看 | 欧美久久影院 | 婷婷激情影院 | 99久久夜色精品国产亚洲 | 日本夜夜草视频网站 | 欧美日韩高清在线一区 | 日韩v欧美v日本v亚洲v国产v | 在线日韩一区 | 亚洲最新av在线网站 | bbb搡bbb爽爽爽 | 激情在线免费视频 | 久久免费的精品国产v∧ | 91大神电影 | 夜夜躁狠狠燥 | 亚洲国内精品 | 免费精品国产 | 日韩久久一区 | 二区三区在线观看 | 99久热在线精品视频成人一区 | 一级做a视频 | 日韩一二区在线 | 国产精品视频资源 | 免费日韩视 | 国产亚洲精品福利 | 亚洲精品乱码久久久久久蜜桃动漫 | 精品国产一区二区三区免费 | www色com| 免费在线观看视频a | 成人午夜影院在线观看 | 天天插夜夜操 | 亚洲国产97在线精品一区 | 天天色视频 | 成人午夜黄色影院 | 国产免费不卡 | 亚洲美女视频网 | 在线亚洲精品 | 91成人天堂久久成人 | 免费三级av| 一区二区三区高清在线 | 99在线免费观看视频 | 久久亚洲综合国产精品99麻豆的功能介绍 | 日韩精品黄 | 国产小视频免费在线观看 | 美女视频一区 | 国产成本人视频在线观看 | 亚洲天堂色婷婷 | 天堂av在线网 | 欧美精品xxx | 久草综合视频 | 婷婷六月天丁香 | 久久视频免费 | 国产精品亚洲片在线播放 | 免费观看丰满少妇做爰 | 日本天天色| 男女激情麻豆 | 91日韩在线专区 | 亚洲五月六月 | 欧美小视频在线 | 免费又黄又爽视频 | 欧美二区在线播放 | 在线观看视频h | 精品国产一区二区三区久久久蜜月 | 色婷婷激情| 国产精品一区二区三区免费看 | 国产91粉嫩白浆在线观看 | 久久人人添人人爽添人人88v | 99久久er热在这里只有精品15 | 欧美孕妇与黑人孕交 | 亚洲精品视频在线 | 色视频在线观看免费 | 婷婷色九月 | 国产精品青青 | 精品在线免费视频 | 久久精品一区二区国产 | 色播五月婷婷 | 国产精品男女啪啪 | 蜜臀av夜夜澡人人爽人人桃色 | 在线观看的av网站 | 久久久久久久久久久福利 | 久久久久久久久久久久电影 | 国产无套精品久久久久久 | av免费播放 | 国产理论一区二区三区 | 久草影视在线观看 | 国产精品久久久网站 | 精品综合久久久 | 亚洲婷婷综合色高清在线 | 免费看的国产视频网站 | 正在播放久久 | 欧美日韩国产一区二区在线观看 | 色av婷婷 | 欧美国产亚洲精品久久久8v | 国内免费久久久久久久久久久 | 五月天久久婷婷 | 在线观看视频一区二区三区 | 婷婷激情综合网 | 日韩av一区二区三区四区 | 婷婷色婷婷 | 日日日爽爽爽 | 国产99久久久精品 | 国产亚洲va综合人人澡精品 | 久久影院亚洲 | 成年美女黄网站色大片免费看 | 亚洲va欧洲va国产va不卡 | 亚洲免费观看视频 | 久久观看最新视频 | 四虎影视成人永久免费观看视频 | 日韩中文字幕免费视频 | 999久久久 | 欧美精品一区二区蜜臀亚洲 | 国产精品久久久久久久久大全 | 黄色影院在线免费观看 | 香蕉视频网址 | 国产在线观看污片 | 国产98色在线 | 日韩 | 一区二区伦理 | 一级精品视频在线观看宜春院 | 日韩91av | 九九爱免费视频在线观看 | 九精品| 在线免费观看av网站 | 国内成人av | 日韩欧美视频在线播放 | 中文字幕成人在线观看 | 精品国产一区二区三区四 | 日日干夜夜操视频 | 久久久官网 | 成人网色 | 欧美精品一区二区免费 | 免费在线观看成年人视频 | av综合 日韩 | 探花视频网站 | 人人爽人人av | 国产精品ⅴa有声小说 | 色婷婷视频 | 欧美一性一交一乱 | 国产在线色站 | av成人免费在线观看 | 天天做夜夜做 | 人人澡人 | 五月天色综合 | 国产亚洲精品久久久久久久久久 | 日日麻批40分钟视频免费观看 | 精品国产免费观看 | 久久电影国产免费久久电影 | 夜夜狠狠 | 福利av在线 | 91高清视频免费 | 手机看片久久 | 国产色女人 | 正在播放一区 | 99久久这里有精品 | 国产精品免费久久久久久久久久中文 | 美女免费黄视频网站 | 久久久久亚洲精品国产 | 一区二区三区在线播放 | 久久国产精品99久久人人澡 | 婷婷激情久久 | 欧美在线一二区 | 十八岁以下禁止观看的1000个网站 | 高清不卡一区二区三区 | 97人人网| 97视频一区 | wwwwwww黄| 国产欧美最新羞羞视频在线观看 | 中文高清av | 一区二区三区四区免费视频 | 国产不卡av在线 | 亚洲精品综合在线 | 亚洲精品99久久久久久 | 日韩中文字幕a | 97在线观看免费视频 | 亚洲精品在线免费 | 国产精品区一区 | 国产精品夜夜夜一区二区三区尤 | 午夜精品久久久99热福利 | 99久久er热在这里只有精品15 | 亚洲高清资源 | 久久成人国产 | 狠狠色噜噜狠狠狠狠 | 国产高清在线观看 | 最新中文字幕 | 久久成人资源 | 97在线精品国自产拍中文 | 精品久久久国产 | 亚洲婷婷伊人 | 中文av在线免费观看 | 日韩一区二区三免费高清在线观看 | 就色干综合 | 国产91精品久久久久久 | 麻豆国产精品永久免费视频 | 国产精品女教师 | 国产区高清在线 | 99免费| 天天人人| 九九热只有精品 | 欧美日韩中文字幕在线视频 | 日本最新一区二区三区 | 国产日本高清 | 91探花国产综合在线精品 | 四虎影视成人永久免费观看视频 | 成人免费观看视频网站 | 成人影视免费看 | 在线黄色免费 | 精一区二区 | 婷婷成人亚洲综合国产xv88 | 中文字幕a∨在线乱码免费看 | 精品国产中文字幕 | 久久久免费 | 日韩亚洲在线观看 | 久久免费看毛片 | 狠狠操狠狠干天天操 | 午夜性福利 | 免费成人黄色 | 久久手机免费视频 | 国产专区一 | 日韩性片 | 免费色网站| 色五月色开心色婷婷色丁香 | www.色午夜 | 亚洲精品免费视频 | 摸bbb搡bbb搡bbbb | 欧美日韩另类在线 | 久久综合精品一区 | 国产亚洲成av人片在线观看桃 | 激情综合网天天干 | 激情在线五月天 | av免费网页 | 欧美色图p | 最新91在线视频 | 碰超在线观看 | 精品久久久久久亚洲综合网 | 激情六月婷婷久久 | 2023年中文无字幕文字 | 99国产精品久久久久久久久久 | 国产精品区在线观看 | 色在线免费观看 | 国产区网址 | 国产超碰在线 | 九九九热精品免费视频观看 | 在线一区观看 | 一区在线观看视频 | 成年人免费av | 久久久久久久久亚洲精品 | 伊人婷婷色 | 1000部国产精品成人观看 | 视频在线观看亚洲 | 久久久久久久久影院 | 亚洲网久久 | 91精品国产麻豆国产自产影视 | 日韩精品久久久免费观看夜色 | 男女啪啪网站 | 日韩av福利在线 | 色欧美成人精品a∨在线观看 | 中文字幕一区二区三区在线播放 | 欧美另类调教 | 九九在线视频免费观看 | 亚洲手机天堂 | 亚洲日本va午夜在线影院 | 亚洲欧美视频一区二区三区 | 欧美一级视频免费看 | 97人人澡人人爽人人模亚洲 | 日韩精品一区二区三区三炮视频 | 国产黄视频在线观看 | 美女视频黄是免费的 | 婷婷丁香社区 | 在线免费精品视频 | 日韩精品一区二区在线 | 婷婷丁香狠狠爱 | 99这里都是精品 | 丰满少妇高潮在线观看 | 欧美在线资源 | 99热九九这里只有精品10 | 久久婷婷色综合 | 国产视频在 | 日韩一级电影网站 | 天天做天天爱夜夜爽 | 精品国产123| 18岁免费看片 | 国产免费资源 | 国产日韩在线观看一区 | 国产综合香蕉五月婷在线 | 91成人精品一区在线播放69 | 97精品国产aⅴ | 久久理论影院 | 中文字幕色在线 | 在线观看 国产 | 国产成人一区二区啪在线观看 | 欧美一级专区免费大片 | 伊人影院99 | 国产一区二区三区免费观看视频 | 国产二区精品 | 玖玖在线看 | 亚洲一区二区三区在线看 | 中文字幕乱码电影 | 国产黄色av影视 | 欧美 日韩 性 | 久久久精品欧美 | 99精品视频在线观看播放 | 在线成人av | 伊人五月综合 | 在线一二区 | 久久精品专区 | 国产亚洲在线 | 日本久久精品视频 | 成人小视频在线观看免费 | 国产黄色片免费 | 五月激情六月丁香 | 黄色av播放 | 狠狠色香婷婷久久亚洲精品 | 超碰在线天天 | 激情伊人五月天久久综合 | 精品少妇一区二区三区在线 | 久久久久一区二区三区四区 | av线上免费观看 | 日本动漫做毛片一区二区 | 欧美激情视频在线免费观看 | 五月激情久久久 | 日本 在线 视频 中文 有码 | 亚洲色视频 | 久久久久久久免费看 | 国产99久久99热这里精品5 | 久久av高清 | 奇米网8888 | 欧美夫妻生活视频 | 国产精品久久久久久久久久久久午夜片 | 亚洲免费成人av电影 | 色资源网在线观看 | 久久成人黄色 | 亚洲精品中文在线资源 | 伊人久久影视 | 在线成人国产 | 亚洲激情婷婷 | 91精品免费视频 | 丰满少妇麻豆av | 日本不卡久久 | 欧美成人影音 | 亚洲精品综合久久 | 中文字幕在线视频免费播放 | 成x99人av在线www | 成年一级片 | 人人射人人插 | 日韩av一区二区在线播放 | 玖玖在线免费视频 | 久草免费在线观看视频 | 日本久久免费视频 | 人人爽人人插 | 热久久影视 | 国产高清视频免费观看 | 久久视精品 | 麻豆久久精品 | 久久久久久精 | 国产中文视 | 高清在线一区 | 又黄又色又爽 | 国产手机在线精品 | 超碰成人免费电影 | 中文网丁香综合网 | 91在线免费公开视频 | 日本三级不卡 | 国产精品毛片一区二区 | 中文字幕在线观看视频一区二区三区 | 欧美肥妇free | 欧美黄污视频 | 99视频在线 | 成人国产精品久久久春色 | 欧日韩在线视频 | 成人精品一区二区三区电影免费 | 成年人黄色在线观看 | 婷色在线 | 婷婷激情综合五月天 | 色5月婷婷| 日韩乱理 | 在线 视频 一区二区 | 日韩国产欧美在线播放 | 日韩大陆欧美高清视频区 | 国产一二区在线观看 | 国产精品96久久久久久吹潮 | 精品一二三四五区 | 国产成人免费在线 | 久久久久麻豆v国产 | 91视频-88av| 国产大陆亚洲精品国产 | 亚洲一级电影在线观看 | 成年人在线观看 | 91精品视频免费看 | 五月天伊人网 | www.av小说 | 亚洲视频久久久久 | 亚洲成人精品国产 | 99精品国产高清在线观看 | 最近高清中文在线字幕在线观看 | 免费在线观看黄 | 国产精品综合av一区二区国产馆 | 在线免费观看视频 | 亚洲精品视频在线看 | 精品视频免费看 | 亚洲欧美偷拍另类 | 蜜桃av观看| 国产精品午夜久久久久久99热 | 又黄又爽又无遮挡免费的网站 | 国产大片免费久久 | 麻豆精品视频在线 | 国外调教视频网站 | 97超碰人人模人人人爽人人爱 | 亚洲日本三级 | 91人人干 | 一级一片免费观看 | 国产伦理一区二区三区 | 欧美日韩高清一区二区三区 | 一区二区三区日韩精品 | 婷婷日 | 在线成人免费电影 | 日韩视频中文字幕 | 欧美激情精品一区 | 国产精品欧美久久久久天天影视 | 超薄丝袜一二三区 | 日韩精品第1页 | 在线免费黄色片 | 国产精品午夜久久久久久99热 | av线上免费观看 | 99色视频 | 国产精品美女久久久久久久 | 99国产精品| 能在线看的av | 久久久蜜桃一区二区 | 波多野结衣电影一区 | 国产理论在线 | 久久精品一区二区三区中文字幕 | 在线观看不卡视频 | 日韩特级毛片 | 久久久国产在线视频 | av资源免费在线观看 | 亚洲国产精品电影 | 国产在线a免费观看 | 91精品国产高清 | 色av资源网 | 中文字幕在线观看第一页 | 天天干天天射天天插 | av福利在线看 | 国产精品女人网站 | 欧美一级大片在线观看 | 毛片永久新网址首页 | 亚洲一区二区黄色 | 国产无遮挡又黄又爽在线观看 | 麻豆国产在线播放 | 中文字幕av在线免费 | 久久久久久久久久久久99 | 国产精品日韩欧美 | 日韩一区二区久久 | 日日干天天操 | 国产乱对白刺激视频不卡 | 欧美精品xxx | 国产做aⅴ在线视频播放 | 日韩av中文字幕在线 | 亚洲黄色在线免费观看 | 色美女在线| 久久久久美女 | 日韩欧美视频在线 | 久草在线中文视频 | 国产精品一区二区中文字幕 | 香蕉视频在线免费看 | 国产中文自拍 | 午夜91在线 | 国产二区免费视频 | 亚洲午夜精品一区 | 色香蕉网 | 国产精品中文字幕在线播放 | 国产福利不卡视频 | 国产精品大全 | 亚洲九九九在线观看 | av中文字幕在线免费观看 | 在线观看成人小视频 | 国内精品一区二区 | 久热免费在线 | 亚洲激情免费 | 久久综合九色欧美综合狠狠 | 久久99精品国产麻豆宅宅 | 国产精品99久久久久久人免费 | 精品福利视频在线 | 日韩欧美在线国产 | 日韩电影一区二区在线观看 | 日韩视频一 | 黄色特一级片 | av不卡中文字幕 | 国产 字幕 制服 中文 在线 | 欧美狠狠操 | 日韩精品一区电影 | 日韩午夜小视频 | 亚州成人av在线 | 91丨九色丨蝌蚪丨老版 | 亚洲天堂网在线观看视频 | 日韩h在线观看 | 能在线观看的日韩av | 欧美 激情 国产 91 在线 | 欧美激情综合网 | 天天曰天天 | 久久天天操 | 国产馆在线播放 | 特级a老妇做爰全过程 | 91视频啪| 97成人精品 | 成年人看片 | 国产在线国偷精品产拍免费yy | 久久人人爽爽人人爽人人片av | 国产视频一级 | 日韩在线二区 | 99中文字幕在线观看 | 国产乱视频| www日日夜夜 | 成人影音在线 | 狠狠干,狠狠操 | 天天干天天操天天拍 | 超碰最新网址 | 国产精品久久久久久av | h久久| 99国产情侣在线播放 | 欧美人牲 | 狠狠地日 | 国产91在线观 | 日韩v欧美v日本v亚洲v国产v | 欧美成人69av| 国产91精品看黄网站在线观看动漫 | 欧美成年人在线视频 | 超碰久热| 午夜视频99 | 免费看成人a | 天天添夜夜操 | 日韩在线观看第一页 | 不卡的av电影 | 日韩激情av在线 | 天天综合网国产 | 91看片淫黄大片一级在线观看 | 99九九热只有国产精品 | 久久久久久久久久久高潮一区二区 | 国产人成在线观看 | 九九久久国产 | 狠狠做六月爱婷婷综合aⅴ 日本高清免费中文字幕 | 不卡av免费在线观看 | 色网站黄| 国产又粗又猛又黄又爽 | 蜜臀久久99精品久久久酒店新书 | 97精品国产97久久久久久粉红 | 色诱亚洲精品久久久久久 | 在线观看av大片 | 狠狠色免费 | 亚洲欧美日韩国产精品一区午夜 | 在线中文字幕av观看 | 中文字幕视频一区二区 | 在线视频观看国产 | av一级免费 | 九九三级毛片 | 日韩欧美在线中文字幕 | 欧美三级在线播放 | 精品国产一区二区三区久久久久久 | 69视频国产 | 人人躁| 国产高清视频网 | 精品国产一区二区三区久久久 | 亚洲涩涩一区 | 亚洲三级在线免费观看 | 色在线视频网 | 精品国产资源 | 亚洲美女免费精品视频在线观看 | 中文字幕第一页在线视频 | 国产精品porn | 亚州精品天堂中文字幕 | 久久亚洲欧美 | 中文超碰字幕 | 人人玩人人添人人 | 国产精品亚洲片夜色在线 | 中文字幕在线观看免费观看 | 欧美国产视频在线 | 最新91在线视频 | 久久久久久免费视频 | 一级成人在线 | 国产超碰在线观看 | 久久亚洲综合国产精品99麻豆的功能介绍 | 久久久久亚洲国产精品 | 欧美日韩高清不卡 | 欧美激情一区不卡 | 色综合久久88色综合天天免费 | 欧美视频一区二 | 999久久久久久久久 69av视频在线观看 | 欧美日韩高清一区二区 国产亚洲免费看 | 欧美日韩高清一区 | 欧美日韩免费观看一区=区三区 | 99在线观看视频网站 | 91高清免费看 | 欧美一区二区三区在线 | 天天爽人人爽夜夜爽 | 国产精品二区在线 | 三上悠亚一区二区在线观看 | 国产免费观看久久 | www黄色| 国产成人在线观看免费 | 有码中文字幕在线观看 | 成人av免费在线播放 | 四虎成人精品在永久免费 | 天天插日日操 | 中文字幕亚洲综合久久五月天色无吗'' | 国产免费观看高清完整版 | 国产成人久久精品 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 色先锋资源网 | 91在线视频播放 | 国产三级国产精品国产专区50 | 中文字幕永久在线 | 热久久国产精品 | 欧美激情精品久久久久 | 天天射天天做 | av国产在线观看 | 在线播放亚洲激情 | 99在线精品免费视频九九视 | 日韩av黄 | 国产中文字幕一区 | 91精品少妇偷拍99 | 久久久久成人精品亚洲国产 | 91精品国产综合久久福利不卡 | 国产精品高清av | 91av官网 | 欧美 日韩 视频 | 麻豆91小视频| 免费观看91视频大全 | 国产一区不卡在线 | 国产精品一区二区久久精品爱微奶 | 999久久久| 日韩电影在线观看一区二区三区 | 日韩精品最新在线观看 | 欧美日韩中文在线 | 91久久国产露脸精品国产闺蜜 | 91完整版在线观看 | 国产精品久久久久av免费 | 日韩av图片| 久久久久久国产精品美女 | 黄a网 | 久久影视中文字幕 | 一级片免费视频 | 免费色婷婷 | 国产中文a | 91粉色视频 | 亚洲成人午夜在线 | 色亚洲网 | 亚洲精品tv | 免费在线电影网址大全 | 久久成人精品 | 欧美视频日韩 | 天天射一射| 亚洲黄色在线免费观看 | 黄色网址av| 中文字幕在线视频免费播放 | 久久久婷 | 依人成人综合网 | 天堂av在线免费观看 | 日本特黄特色aaa大片免费 | 国产午夜视频在线观看 | 成人日韩av | 国产不卡在线看 | 伊人超碰在线 | 精品久久久久久久 | 鲁一鲁影院| 有没有在线观看av | 日韩精品极品视频 | 亚洲国产精品激情在线观看 | 夜色在线资源 | 在线日本看片免费人成视久网 | 午夜影院日本 | 亚洲综合射| 国产成人一区二区精品非洲 | 久久精品国产精品亚洲 | 狠狠狠狠狠狠天天爱 | 在线观看av的网站 | 亚洲欧洲中文日韩久久av乱码 | 亚洲国产手机在线 | 欧美成人精品三级在线观看播放 | 久久免费大片 | av一区在线播放 | 日韩av免费观看网站 | 亚洲国产欧洲综合997久久, | 99久久精品久久久久久清纯 | 8090yy亚洲精品久久 | 久久成人午夜视频 | 在线播放你懂 | 国产精品久久久精品 | 国产在线高清视频 | 成人av电影免费在线播放 | 99在线免费观看视频 | 国产一级在线观看视频 | 欧美福利久久 | 久久精品一区二区三区视频 | 99综合电影在线视频 | 国产精品激情偷乱一区二区∴ | 成人av资源 | 国产在线观看污片 | 日韩中文字幕免费 | 午夜色大片在线观看 | 亚洲精品tv | 日韩羞羞 | 成人久久久精品国产乱码一区二区 | 国产精品igao视频网入口 | 国产亚洲精品久久久久久 | 国内精品免费久久影院 | 高清av网 | 成人久久久久久久久 | 日本久久免费视频 | 91av福利视频 | 亚洲一级黄色片 | 久久爱影视i | 在线电影日韩 | 在线精品观看国产 | 亚洲电影第一页av | 国产一级精品在线观看 | 玖玖在线观看视频 | 日韩av伦理片 | 97成人超碰 | 99精品欧美一区二区蜜桃免费 | 久久久久久久久久久久久久电影 | 在线看日韩 | 久久久久亚洲国产 | 在线视频精品播放 | 99久久99久国产黄毛片 | 久草视频首页 | 亚洲精品乱码久久久一二三 | av中文在线| 国产精品黄色在线观看 | www在线免费观看 | 国产精品第52页 | 国内精品免费久久影院 | 日本系列中文字幕 | 国产精品久久久久毛片大屁完整版 | 久久久久久久国产精品影院 | 91免费版成人 | www.久久精品视频 | 日韩字幕 | 国产99久久久久 | 精品久久久免费视频 | 蜜桃视频成人在线观看 | 亚洲伊人色 | 91自拍91 | 日韩中文字幕国产精品 | 欧美尹人| 成年人免费观看在线视频 | 国产美女在线免费观看 | 日日天天狠狠 | 亚洲国产精品推荐 | 久久精品综合视频 | av丁香花| 国产日韩欧美在线观看 | 婷婷六月丁 | 国产精品永久久久久久久久久 | 99久热在线精品视频观看 | 色就干| 日韩精品不卡 | 97色免费视频 | 美女久久久久久久久久久 | 丁香婷婷在线观看 | 99热这里只有精品久久 | 国产视频一区在线免费观看 | 国产第一福利 | 五月婷婷中文 | 成年人免费av网站 | 97成人在线观看视频 | 久久天天躁狠狠躁亚洲综合公司 | 久久精品在线免费观看 | 国产一级片免费观看 | 国产精品一级视频 | av在线日韩 | 99国产免费网址 | 国产人成精品一区二区三 | 中文字幕 成人 | 国产精品国产三级国产不产一地 | 久久久影视 | 国产精品久久久久久久久久久久午夜片 | 欧美色图另类 | 91在线视频免费 | 国产日韩中文字幕在线 | 久久国产精品二国产精品中国洋人 | 国产91在线观 | 在线免费黄色 | zzijzzij日本成熟少妇 | av成人免费观看 | 午夜天使 | 精品亚洲视频在线 | 天天草av| 亚洲一区二区观看 | 日本精品久久久久影院 | 久久精品欧美日韩精品 | 久久久久久久久久福利 | 亚洲传媒在线 | 五月天视频网 | 最近日本mv字幕免费观看 | 国产精品久久久久一区二区 | 91一区二区三区在线观看 | 成人免费视频播放 | av免费福利| 天天色天天干天天色 | 中文字幕av全部资源www中文字幕在线观看 | 国产69精品久久99的直播节目 | 日本精品在线 | 97狠狠干| 国产小视频你懂的在线 | 成人a视频片观看免费 | 国产在线国偷精品产拍 | 在线久久 | 国产精品白浆 | 免费在线91| 日韩精品无码一区二区三区 | 日本巨乳在线 | 日本在线观看黄色 | 国产一区电影在线观看 | 欧美精品在线观看免费 | 日日躁天天躁 | 亚洲区精品视频 | 91视频免费看片 | 午夜久久精品 | 色吊丝av中文字幕 | 17videosex性欧美| 99精品视频免费观看视频 | 国产精品18久久久久vr手机版特色 | 美女视频a美女大全免费下载蜜臀 | 国产第一页在线播放 | 亚洲欧洲一区二区在线观看 | 欧美做受69 | 亚洲播放一区 | 久久99精品久久只有精品 | 久久精品视频网址 | 91九色综合 | www激情com| 久久国产精品99久久久久久丝袜 | 天天操天天是 | 顶级欧美色妇4khd | 三日本三级少妇三级99 | 久久综合久久八八 | 99国产视频在线 | 天天射天 | 国产精品高清免费在线观看 | 国产黄色片免费在线观看 | 欧美日韩高清在线一区 | 国内精品视频久久 | 国产探花 | 天天天干天天天操 | 久久视频一区 | 婷婷草| 狠狠干天天色 | 国产视频一二区 | 国产中文欧美日韩在线 | 久久国产精品精品国产色婷婷 | 少妇性xxx | 日韩av免费在线电影 | 欧美中文字幕久久 | 五月天亚洲精品 | av+在线播放在线播放 | 成人一级片视频 | 日韩久久精品一区二区三区 | 国内久久精品 | 91网免费看 | 日夜夜精品视频 | 久久精品日产第一区二区三区乱码 | 久久精品高清 | 精品国产美女 | www.神马久久 | 五月婷婷色 | 国产视频九色蝌蚪 | 成人免费av电影 | 亚洲少妇激情 | 人人澡人人添人人爽一区二区 | 高清av免费一区中文字幕 | 午夜久久福利视频 | 丁香花中文字幕 | a'aaa级片在线观看 | 91精品国产92久久久久 | 日韩.com | 日韩久久激情 | 91精品国产福利在线观看 | 91麻豆.com| 国产在线最新 | 日韩超碰在线 | 中文网丁香综合网 | 在线看成人片 | 免费看v片网站 | 99久久er热在这里只有精品15 | 久久免费片| 欧美精品在线观看免费 | 免费视频 三区 | 91视频啊啊啊 | 456成人精品影院 | 久久丁香 | 波多野结衣在线观看一区 | 久久精品99久久久久久 | 999久久久久| 伊人天天综合 | 成人中文字幕在线观看 | 国产高清在线免费视频 | 一区二区三区精品在线视频 | 91精品久久久久久粉嫩 | 国内视频| 一本一本久久a久久精品牛牛影视 | 亚洲波多野结衣 | 久久久五月天 | 精品超碰 | 免费观看性生活大片 | 最新av免费在线 | 欧美日韩精品综合 | 国产在线观看一 | 免费视频资源 | 欧美日韩中| 在线亚洲高清视频 | 丁香5月婷婷| 免费 在线 中文 日本 | 久久国产精品99久久久久久老狼 | 97在线免费 | 国产精品区二区三区日本 | 99热在线精品观看 | a级国产片 | 高清免费在线视频 | 亚洲视频,欧洲视频 | 在线国产91 | 国产精品女人久久久久久 | 99视频精品 | 国产精品久久久久婷婷二区次 | 天天操天天干天天操天天干 | 中文字幕一区二区三区精华液 | 亚洲国产三级在线观看 | 干 操 插| 四虎影视8848aamm | 97免费公开视频 | 日韩在线网址 | 成人黄色在线播放 | 中文字幕免费播放 | 右手影院亚洲欧美 | 女人高潮特级毛片 | 亚洲精色 | 精壮的侍卫呻吟h | 伊色综合久久之综合久久 | 久久激情小说 | 亚洲精品xxx | 男女全黄一级一级高潮免费看 | 欧美久久电影 | 国产 一区二区三区 在线 |