Trapper: Transformer模型都在此!
Trapper(Transformers wrapper)是一個(gè)NLP庫(kù),旨在使基于下游任務(wù)的transformer模型的訓(xùn)練更加容易。該庫(kù)提供transformer模型實(shí)現(xiàn)和訓(xùn)練機(jī)制,它為使用transformer模型時(shí)遇到的常見(jiàn)任務(wù)定義了帶有基類的抽象。此外,它還提供了依賴注入機(jī)制,并允許通過(guò)配置文件定義訓(xùn)練和評(píng)估實(shí)驗(yàn)。通過(guò)這種方式,可以使用不同的模型、優(yōu)化器等進(jìn)行實(shí)驗(yàn),只需在配置文件中更改它們的值,而無(wú)需編寫(xiě)任何新代碼或更改現(xiàn)有代碼。這些特性促進(jìn)了代碼重用,減少了代碼.
github鏈接:
https://github.com/huggingface/transformers/blob/master/README_zh-hans.md
安裝的方式非常簡(jiǎn)單,直接pip install trapper即可.
可以直接用訓(xùn)練好的模型做情感分析,填詞等任務(wù):
也可以輕松的進(jìn)行finetune和預(yù)估,以下是pytorch方法,此外還支持keras:
總結(jié)
以上是生活随笔為你收集整理的Trapper: Transformer模型都在此!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 10大最受欢迎的时间序列Github项目
- 下一篇: 网络越深越好?