日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

finetune与Bert

發布時間:2024/7/5 编程问答 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 finetune与Bert 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

  • 一:過擬合
    • 1.1 直接finetune
    • 1.2 layer finetune
    • 1.3ULMFiT
  • 2 Bert節省內存
  • 3 Bert蒸餾
  • 4.post train

一:過擬合

1.1 直接finetune

容易過擬合

1.2 layer finetune

拷貝部分預訓練參數,而其他隨機初始化

  • 兩部分一同訓練:提升(左下線5)
  • 只訓練隨機初始化的部分:破壞(左下線2),但在此基礎上再解凍剩余部分會恢復(左下線3)

    李宏毅transfer learning.
    How transferable are features in deep neural networks? 論文筆記
    How transferable are features in deep neural networks?
  • 1.3ULMFiT

    Universal Language Model Fine-tuning for Text Classification
    從最后一層到前層,逐層解凍

    2 Bert節省內存

    以時間節省內存

    3 Bert蒸餾

    Bert短路–>加速了

    4.post train

    不是很懂,大體是對已經與訓練過的模型,使用新的數據集進一步預訓練,之后再做finetune。 疫情期間微博數據情感分析的任務中,第一名(還是第三名?)用這個方法進行進一步預訓練,數據集大小10w

    總結

    以上是生活随笔為你收集整理的finetune与Bert的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。