日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

去掉softmax后Transformer会更好吗?复旦华为诺亚提出SOFT

發布時間:2025/3/8 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 去掉softmax后Transformer会更好吗?复旦华为诺亚提出SOFT 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

作者丨happy
?編輯丨極市平臺

論文鏈接:https://arxiv.org/pdf/2110.11945.pdf

代碼鏈接:https://github.com/fudan-zvg/SOFT

項目鏈接:https://fudan-zvg.github.io/SOFT/

本文是復旦大學&華為諾亞關于Transformer中自注意力機制復雜度的深度思考,首次提出了一種新穎的softmax-free 的Transformer 。本文從softmax self-attention局限性出發,分析了其存在的挑戰;然后由此提出了線性復雜度的SOFT;再針對線性SOFT存在的訓練問題,提出了一種具有理論保證的近似方案。所提SOFT在ImageNet分類任務上取得了比已有CNN、Transformer更佳的精度-復雜度均衡。

閱讀完整原文:去掉softmax后Transformer會更好嗎?復旦&華為諾亞提出SOFT:輕松搞定線性近似

總結

以上是生活随笔為你收集整理的去掉softmax后Transformer会更好吗?复旦华为诺亚提出SOFT的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。