[Pytorch]基于混和精度的模型加速
這篇博客是在pytorch中基于apex使用混合精度加速的一個偏工程的描述,原理層面的解釋并不是這篇博客的目的,不過在參考部分提供了非常有價值的資料,可以進一步研究。
一個關鍵原則:“僅僅在權重更新的時候使用fp32,耗時的前向和后向運算都使用fp16”。其中的一個技巧是:在反向計算開始前,將dloss乘上一個scale,人為變大;權重更新前,除去scale,恢復正常值。目的是為了減小激活gradient下溢出的風險。
apex是nvidia的一個pytorch擴展,用于支持混合精度訓練和分布式訓練。在之前的博客中,神經網絡的Low-Memory技術梳理了一些low-memory技術,其中提到半精度,比如fp16。apex中混合精度訓練可以通過簡單的方式開啟自動化實現,組里同學交流的結果是:一般情況下,自動混合精度訓練的效果不如手動修改。分布式訓練中,有社區同學心心念念的syncbn的支持。關于syncbn,在去年做CV的時候,我們就有一些來自民間的嘗試,不過具體提升還是要考慮具體任務場景。
那么問題來了,如何在pytorch中使用fp16混合精度訓練呢?
第零:混合精度訓練相關的參數
parser.add_argument('--fp16',action='store_true',help="Whether to use 16-bit float precision instead of 32-bit")
parser.add_argument('--loss_scale',type=float, default=0,help="Loss scaling to improve fp16 numeric stability. Only used when fp16 set to True.\n""0 (default value): dynamic loss scaling.\n""Positive power of 2: static loss scaling value.\n")
第一:模型參數轉換為fp16
nn.Module中的half()方法將模型中的float32轉化為float16,實現的原理是遍歷所有tensor,而float32和float16都是tensor的屬性。也就是說,一行代碼解決,如下:
model.half()
第二:修改優化器
在pytorch下,當使用fp16時,需要修改optimizer。類似代碼如下(代碼參考這里):
# Prepare optimizerif args.do_train:param_optimizer = list(model.named_parameters())no_decay = ['bias', 'LayerNorm.bias', 'LayerNorm.weight']optimizer_grouped_parameters = [{'params': [p for n, p in param_optimizer if not any(nd in n for nd in no_decay)], 'weight_decay': 0.01},{'params': [p for n, p in param_optimizer if any(nd in n for nd in no_decay)], 'weight_decay': 0.0}]if args.fp16:try:from apex.optimizers import FP16_Optimizerfrom apex.optimizers import FusedAdamexcept ImportError:raise ImportError("Please install apex from https://www.github.com/nvidia/apex to use distributed and fp16 training.")optimizer = FusedAdam(optimizer_grouped_parameters,lr=args.learning_rate,bias_correction=False,max_grad_norm=1.0)if args.loss_scale == 0:optimizer = FP16_Optimizer(optimizer, dynamic_loss_scale=True)else:optimizer = FP16_Optimizer(optimizer, static_loss_scale=args.loss_scale)warmup_linear = WarmupLinearSchedule(warmup=args.warmup_proportion,t_total=num_train_optimization_steps)else:optimizer = BertAdam(optimizer_grouped_parameters,lr=args.learning_rate,warmup=args.warmup_proportion,t_total=num_train_optimization_steps)
第三:backward時做對應修改
if args.fp16:optimizer.backward(loss)else:loss.backward()
第四:學習率修改
if args.fp16:# modify learning rate with special warm up BERT uses# if args.fp16 is False, BertAdam is used that handles this automaticallylr_this_step = args.learning_rate * warmup_linear.get_lr(global_step, args.warmup_proportion)for param_group in optimizer.param_groups:param_group['lr'] = lr_this_stepoptimizer.step()optimizer.zero_grad()
根據參考3,值得重述一些重要結論:
(1)深度學習訓練使用16bit表示/運算正逐漸成為主流。
(2)低精度帶來了性能、功耗優勢,但需要解決量化誤差(溢出、舍入)。
(3)常見的避免量化誤差的方法:為權重保持高精度(fp32)備份;損失放大,避免梯度的下溢出;一些特殊層(如BatchNorm)仍使用fp32運算。
參考資料:
1.nv官方repo給了一些基于pytorch的apex加速的實現
實現是基于fairseq實現的,可以直接對比代碼1-apex版和代碼2-非apex版(fairseq官方版),了解是如何基于apex實現加速的。
2.nv官方關于混合精度優化的原理介紹
按圖索驥,可以get到很多更加具體地內容。
3.低精度表示用于深度學習 訓練與推斷
感謝團隊同學推薦。
總結
以上是生活随笔為你收集整理的[Pytorch]基于混和精度的模型加速的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Pytorch: 命名实体识别: Ber
- 下一篇: adam调参