国内HuggingFace,预训练模型镜像使用
Hugging Face Transformers?是自然語(yǔ)言處理領(lǐng)域的重要開源項(xiàng)目,提供了基于通用架構(gòu)(如 BERT,GPT-2,RoBERTa)的數(shù)千個(gè)預(yù)訓(xùn)練模型,并提供了 PyTorch 和 TensorFlow 的良好互操作性。
我們鏡像了 Hugging Face Model Hub,為國(guó)內(nèi)用戶下載預(yù)訓(xùn)練模型數(shù)據(jù)提供便利。
使用方法
注意:transformers > 3.1.0?的版本支持下面的?mirror?選項(xiàng)。
只需在?from_pretrained?函數(shù)調(diào)用中添加?mirror?選項(xiàng),如:
AutoModel.from_pretrained('bert-base-uncased', mirror='tuna')
目前內(nèi)置的兩個(gè)來(lái)源為?tuna?與?bfsu。此外,也可以顯式提供鏡像地址,如:
AutoModel.from_pretrained('bert-base-uncased', mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models')
或者直接去清華鏡像上下載:
https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models/hfl/
版權(quán)聲明:本文為CSDN博主「WBwhiteBeard」的原創(chuàng)文章,遵循CC 4.0 BY-SA版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/A_zhangpengjie/article/details/110003580
總結(jié)
以上是生活随笔為你收集整理的国内HuggingFace,预训练模型镜像使用的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: vim中直接打开ipython的方法
- 下一篇: Transductive和Inducti