日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

模型调参指南北东西

發布時間:2025/3/8 编程问答 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 模型调参指南北东西 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

說到超參,不得不先提到參數,這兩個是有本質區別的。對于神經網絡而言,學習率、batchsize等都是超參,而參數就是網絡中所有的weight。可以這樣簡單的區分超參和參數,在模型訓練前需要固定的參數就是超參,而參數受到訓練數據和超參的影響,按照優化目標逐步更新,到最后得到該超參下的最優模型。超參的重要性不言而喻,那么如何正確的設定超參呢?

如何選擇好的超參

  • 手動調超參: 用這個方法,需要人工按照試驗過程中得出的經驗人工指定各個超參的組合,這個過程冗長且乏味,如果有大量的超參,組合是指數級別增加,手動調是不切實際的。
  • 自動調超參: 用這個方法,超參會用一種算法自動優化。

調整超參的方法

Random Search

先給出每個超參可能的值,然后每次迭代使用這些值的隨機組合訓練模型,參考最終的評估指標,選擇最好效果的超參。

Grid Search
網格搜索大家也并不陌生,同隨機搜索不同的是,會按照一種特定的順序選擇超參,參考最終的評估指標,選擇最好的超參。如下圖所示:

貝葉斯優化

和用梯度下降方法找到最優參數降低模型loss類似,找正確的超參也是一個優化問題,貝葉斯優化幫助我們在較少的嘗試次數下找到最優解。通過已經觀測到的提升的細節,定義一個函數,知道超參的采樣。

詳情見 en.wikipedia.org/wiki/B

Tree-structured Parzen estimators (TPE)

這個方法和貝葉斯方法類似,并不是對p(y|x)進行建模(x表示超參,y表示我們要優化的模型),而是對p(x|y)和p(y)進行建模。TPE的缺點就是該方法沒有描述各個超參之間的聯系,該方法在實踐效果非常好。

詳情見 optunity.readthedocs.io

超參調參算法

Hyperband

這是一種隨機搜索的方法,但是有一些探索理論的指導,從而合理分配搜索各個參數的時間。

詳情見論文《Hyperband: A Novel Bandit-Based Approach to Hyperparameter Optimization》 arxiv.org/pdf/1603.0656

Population-based training (PBT)

這種方法集成了2種常用的參數搜索方法(隨機搜索,人工搜索),用于神經網絡模型調超參。PBT先用隨機參數并行訓練多個模型,這些模型并不是相互獨立的。該算法使用population的信息去提煉超參,并決定用哪種參數。

詳情見 deepmind.com/blog/artic

BOHB

混合貝葉斯方法和Hyperband方法進行超參搜索。

詳情見 automl.org/blog_bohb/

超參利器

  • Scikit-learn(grid search, random search): scikit-learn.org/stable
  • Hyperopt: hyperopt.github.io/hype
  • Scikit-Optimize: scikit-optimize.github.io
  • Optuna: optuna.org/
  • Ray.tune: docs.ray.io/en/latest/t

與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的模型调参指南北东西的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。