【数据竞赛】NLP竞赛中99%上升的技巧!
作者:杰少
強(qiáng)化Transformer的語(yǔ)意表示的策略
簡(jiǎn)介
在諸多NLP等的問(wèn)題中,我們會(huì)使用預(yù)訓(xùn)練模型并在其最后一層進(jìn)行微調(diào),例如我們就會(huì)經(jīng)常采用下面的微調(diào)方式:
在Transformer之后為下游任務(wù)或模型的后面部分添加一個(gè)額外的輸出層,并使用該模型最后一層的表示作為默認(rèn)輸入。
然而,由于Transformer經(jīng)常是多層的結(jié)構(gòu),不同的層可以捕獲到不同的表示信息。可以學(xué)習(xí)到更為豐富的語(yǔ)言信息層次,即:
最下層的表面特征;
中間層的句法特征;
更高層的語(yǔ)義特征。
BERT的作者通過(guò)將不同的向量組合作為輸入特征輸入到命名實(shí)體識(shí)別任務(wù)的BiLSTM,并觀察結(jié)果F1分?jǐn)?shù),來(lái)測(cè)試單詞嵌入的策略。最后四層的連接產(chǎn)生了最好的結(jié)果
也就是說(shuō),如果我們處理NLP的相關(guān)問(wèn)題時(shí):
我們應(yīng)該將后續(xù)的多層輸出結(jié)果一起進(jìn)行拼接用作后續(xù)的輸入可以拿到比任何某層更好的效果。
示例代碼
代碼摘自:https://towardsdatascience.com/my-first-gold-in-kaggle-tips-and-tricks-for-an-nlp-competition-cec48dda5895
小結(jié)
在NLP所有用到預(yù)訓(xùn)練模型的問(wèn)題中,我們都應(yīng)該嘗試將最后幾層一起拼接使用的策略。
參考文獻(xiàn)
http://jalammar.github.io/illustrated-bert/
https://towardsdatascience.com/my-first-gold-in-kaggle-tips-and-tricks-for-an-nlp-competition-cec48dda5895
本站qq群955171419,加入微信群請(qǐng)掃碼:
總結(jié)
以上是生活随笔為你收集整理的【数据竞赛】NLP竞赛中99%上升的技巧!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Numpy简易入门
- 下一篇: acer笔记本电脑如何进入bios设置