国内HuggingFace,预训练模型镜像使用
Hugging Face Transformers?是自然語言處理領域的重要開源項目,提供了基于通用架構(如 BERT,GPT-2,RoBERTa)的數千個預訓練模型,并提供了 PyTorch 和 TensorFlow 的良好互操作性。
我們鏡像了 Hugging Face Model Hub,為國內用戶下載預訓練模型數據提供便利。
使用方法
注意:transformers > 3.1.0?的版本支持下面的?mirror?選項。
只需在?from_pretrained?函數調用中添加?mirror?選項,如:
AutoModel.from_pretrained('bert-base-uncased', mirror='tuna')
目前內置的兩個來源為?tuna?與?bfsu。此外,也可以顯式提供鏡像地址,如:
AutoModel.from_pretrained('bert-base-uncased', mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models')
或者直接去清華鏡像上下載:
https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models/hfl/
版權聲明:本文為CSDN博主「WBwhiteBeard」的原創文章,遵循CC 4.0 BY-SA版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/A_zhangpengjie/article/details/110003580
總結
以上是生活随笔為你收集整理的国内HuggingFace,预训练模型镜像使用的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: vim中直接打开ipython的方法
- 下一篇: Transductive和Inducti