Gradient Boost Decision Tree(GBDT)中损失函数为什么是对数形式
生活随笔
收集整理的這篇文章主要介紹了
Gradient Boost Decision Tree(GBDT)中损失函数为什么是对数形式
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
由于最近要經常用到XGBOOST的包,不免對相關的GBDT的原理又重新學習了一遍,
發現其中在考慮損失函數的時候,是以對數log進行度量的,囿于誤差平方和函數的印象
那么為什么是對數呢?可能是下面的原因:
【通俗的解釋】
對數損失是用于最大似然估計的。
一組參數在一堆數據下的似然值,等于每一條數據的概率之積。
而損失函數一般是每條數據的損失之和,為了把積變為和,就取了對數。
再加個負號是為了讓最大似然值和最小損失對應起來。
【專業的解釋】
鏈接:http://www.zhihu.com/question/27126057
注:似乎很有道理,大家如果覺得不對,歡迎留言討論。
轉載于:https://www.cnblogs.com/haobang008/p/5921157.html
總結
以上是生活随笔為你收集整理的Gradient Boost Decision Tree(GBDT)中损失函数为什么是对数形式的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: jquey(判断文本框输入的网址链接是否
- 下一篇: 制作简单的2D物理引擎(零)