bert模型使用记录
使用記錄1
代碼采用如下鏈接的,并做了微改
Bert-Chinese-Text-Classification-Pytorchhttps://github.com/649453932/Bert-Chinese-Text-Classification-Pytorch
數(shù)據(jù)集使用的是情感分析數(shù)據(jù)集,有測試集、驗(yàn)證集和訓(xùn)練集,忘了哪下的了,找到鏈接會發(fā)出來。
首先說一下遇到的問題,上面的代碼沒問題,主要的問題出在數(shù)據(jù)集的讀取上,因?yàn)檫@個(gè)是.data文件,用了numpy和pandas庫讀取均出現(xiàn)錯(cuò)誤,而且數(shù)據(jù)集的打開方式如果直接用txt方式打開會是亂碼,谷歌了一下,最后采用的方法很直接,直接在.data后面加.txt,能成功打開并且格式不亂,很神奇,修改model里面的數(shù)據(jù)集路徑,直接用bert模型跑,下面是參數(shù)不同時(shí),loss和acc的變化表。
環(huán)境為 3060 6G python=3.7
torch ? ? ? ? ? ? ? ? ? 1.10.1+cu113
torchtext ? ? ? ? ? ? ? 0.11.2
torchvision ? ? ? ? ? ? 0.11.2+cu113
預(yù)訓(xùn)練模型從這里下,我采用的是chinese_wwm_pytorch模型,鏈接找到就放抱抱臉https://huggingface.co/models
首先先進(jìn)行小規(guī)模測試,epoch=2,batchsize=64,其他不變,Test Loss: ?0.69, ?Test Acc: 54.43%
然后增加參數(shù),epoch=10,batchsize=64,Test Loss: ?0.24, ?Test Acc: 91.71%
如果降低padsize會降低acc
采用bert-base-uncasedhttps://huggingface.co/bert-base-uncased
Test Loss: ?0.54, ?Test Acc: 74.56%?
總結(jié)
以上是生活随笔為你收集整理的bert模型使用记录的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: idea中导包的快捷键如何使项目自动导包
- 下一篇: NTP搭建(原创)