python 网格搜索_Python机器学习:6.4 通过网格搜索调参
機(jī)器學(xué)習(xí)算法中有兩類參數(shù):從訓(xùn)練集中學(xué)習(xí)到的參數(shù),比如邏輯斯蒂回歸中的權(quán)重參數(shù),另一類是模型的超參數(shù),也就是需要人工設(shè)定的參數(shù),比如正則項(xiàng)系數(shù)或者決策樹的深度。
前一節(jié),我們使用驗(yàn)證曲線來(lái)提高模型的性能,實(shí)際上就是找最優(yōu)參數(shù)。這一節(jié)我們學(xué)習(xí)另一種常用的超參數(shù)尋優(yōu)算法:網(wǎng)格搜索(grid search)。
網(wǎng)格搜索聽起來(lái)高大上,實(shí)際上簡(jiǎn)單的一筆,就是暴力搜索而已,我們事先為每個(gè)參數(shù)設(shè)定一組值,然后窮舉各種參數(shù)組合,找到最好的那一組。
Python機(jī)器學(xué)習(xí):6.4 通過(guò)網(wǎng)格搜索調(diào)參
GridSearchCV中param_grid參數(shù)是字典構(gòu)成的列表。對(duì)于線性SVM,我們只評(píng)估參數(shù)C;對(duì)于RBF核SVM,我們?cè)u(píng)估C和gamma。
最后, 我們通過(guò)best_parmas_得到最優(yōu)參數(shù)組合。
sklearn人性化的一點(diǎn)是,我們可以直接利用最優(yōu)參數(shù)建模(best_estimator_):
Python機(jī)器學(xué)習(xí):6.4 通過(guò)網(wǎng)格搜索調(diào)參
Note 網(wǎng)格搜索雖然不錯(cuò),但是窮舉過(guò)于耗時(shí),sklearn中還實(shí)現(xiàn)了隨機(jī)搜索,使用 RandomizedSearc
機(jī)器學(xué)習(xí)算法中有兩類參數(shù):從訓(xùn)練集中學(xué)習(xí)到的參數(shù),比如邏輯斯蒂回歸中的權(quán)重參數(shù),另一類是模型的超參數(shù),也就是需要人工設(shè)定的參數(shù),比如正則項(xiàng)系數(shù)或者決策樹的深度。
前一節(jié),我們使用驗(yàn)證曲線來(lái)提高模型的性能,實(shí)際上就是找最優(yōu)參數(shù)。這一節(jié)我們學(xué)習(xí)另一種常用的超參數(shù)尋優(yōu)算法:網(wǎng)格搜索(grid search)。
網(wǎng)格搜索聽起來(lái)高大上,實(shí)際上簡(jiǎn)單的一筆,就是暴力搜索而已,我們事先為每個(gè)參數(shù)設(shè)定一組值,然后窮舉各種參數(shù)組合,找到最好的那一組。
GridSearchCV中param_grid參數(shù)是字典構(gòu)成的列表。對(duì)于線性SVM,我們只評(píng)估參數(shù)C;對(duì)于RBF核SVM,我們?cè)u(píng)估C和gamma。
最后, 我們通過(guò)best_parmas_得到最優(yōu)參數(shù)組合。
sklearn人性化的一點(diǎn)是,我們可以直接利用最優(yōu)參數(shù)建模(best_estimator_):
Note?網(wǎng)格搜索雖然不錯(cuò),但是窮舉過(guò)于耗時(shí),sklearn中還實(shí)現(xiàn)了隨機(jī)搜索,使用 RandomizedSearchCV類,隨機(jī)采樣出不同的參數(shù)組合。
Python機(jī)器學(xué)習(xí)中文版目錄(http://www.aibbt.com/a/20787.html)
轉(zhuǎn)載請(qǐng)注明出處,Python機(jī)器學(xué)習(xí)(http://www.aibbt.com/a/pythonmachinelearning/)
posted on
2018-03-12 11:48
aibbt_com
閱讀(3314)
評(píng)論(1)
編輯
收藏
總結(jié)
以上是生活随笔為你收集整理的python 网格搜索_Python机器学习:6.4 通过网格搜索调参的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Mentor许可、许可分析、分析许可
- 下一篇: 使用Python基于BibTeX引用格式