finetune与Bert
生活随笔
收集整理的這篇文章主要介紹了
finetune与Bert
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
文章目錄
- 一:過擬合
- 1.1 直接finetune
- 1.2 layer finetune
- 1.3ULMFiT
- 2 Bert節(jié)省內(nèi)存
- 3 Bert蒸餾
- 4.post train
一:過擬合
1.1 直接finetune
容易過擬合
1.2 layer finetune
拷貝部分預(yù)訓(xùn)練參數(shù),而其他隨機初始化
李宏毅transfer learning.
How transferable are features in deep neural networks? 論文筆記
How transferable are features in deep neural networks?
1.3ULMFiT
Universal Language Model Fine-tuning for Text Classification
從最后一層到前層,逐層解凍
2 Bert節(jié)省內(nèi)存
以時間節(jié)省內(nèi)存
3 Bert蒸餾
Bert短路–>加速了
4.post train
不是很懂,大體是對已經(jīng)與訓(xùn)練過的模型,使用新的數(shù)據(jù)集進一步預(yù)訓(xùn)練,之后再做finetune。 疫情期間微博數(shù)據(jù)情感分析的任務(wù)中,第一名(還是第三名?)用這個方法進行進一步預(yù)訓(xùn)練,數(shù)據(jù)集大小10w總結(jié)
以上是生活随笔為你收集整理的finetune与Bert的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: AlphaFold 和 AI 蛋白质折叠
- 下一篇: 论文学习3-Improving Neur