日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python随机森林库_随机森林算法入门(python)

發布時間:2024/3/13 python 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python随机森林库_随机森林算法入门(python) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

目錄

1 什么是隨機森林

1.1 集成學習

1.2 隨機決策樹

1.3 隨機森林

1.4 投票

2 為什么要用它

3 使用方法

3.1 變量選擇

3.2 分類

3.3 回歸

4 一個簡單的Python示例

結語

前言:?隨機森林是一個非常靈活的機器學習方法,從市場營銷到醫療保險有著眾多的應用。它可以用于市場營銷對客戶獲取和存留建模或預測病人的疾病風險和易感性。

隨機森林能夠用于分類和回歸問題,可以處理大量特征,并能夠幫助估計用于建模數據變量的重要性。

這篇文章是關于如何使用Python構建隨機森林模型。

1 什么是隨機森林

隨機森林可以用于幾乎任何一種預測問題(包括非線性問題)。它是一個相對較新的機器學習策略(90年代誕生于貝爾實驗室)可以用在任何方面。它屬于機器學習中的集成學習這一大類。

1.1 集成學習

集成學習是將多個模型進行組合來解決單一的預測問題。它的原理是生成多個分類器模型,各自獨立地學習并作出預測。這些預測最后結合起來得到預測結果,因此和單獨分類器的結果相比,結果一樣或更好。

隨機森林是集成學習的一個分支,因為它依靠于決策樹的集成。

1.2 隨機決策樹

我們知道隨機森林是將其他的模型進行聚合, 但具體是哪種模型呢?從其名稱也可以看出,隨機森林聚合的是分類(或回歸) 樹。一顆決策樹是由一系列的決策組合而成的,可用于數據集的觀測值進行分類 。

1.3 隨機森林

引入的隨機森林算法將自動創建隨機決策樹群。由于這些樹是隨機生成的,大部分的樹(甚至 99.9%)對解決你的分類或回歸問題是沒有有意義。

1.4 投票

那么,生成甚至上萬的糟糕的模型有什么好處呢?好吧,這確實沒有。但有用的是,少數非常好的決策樹也隨之一起生成了。

當你要做預測的時候,新的觀察值隨著決策樹自上而下走下來并被賦予一個預測值或標簽。一旦森林中的每棵樹都給有了預測值或標簽,所有的預測結果將被歸總到一起,所有樹的投票返回做為最終的預測結果。

簡單來說,99.9%不相關的樹做出的預測結果涵蓋所有的情況,這些預測結果將會彼此抵消。少數優秀的樹的預測結果將會脫穎而出,從而得到一個好的預測結果。

2 為什么要用它

隨機森林是機器學習方法中的Leatherman(多功能折疊刀)。你幾乎可以把任何東西扔給它。它在估計推斷映射方面做的特別好,從而不需要類似SVM醫一樣過多的調參(這點對時間緊迫的朋友非常好)。

2.1 一個映射的例子

隨機森林可以在未經特意手工進行數據變換的情況下學習。以函數f(x)=log(x)為例。

我們將在Yhat自己的交互環境Rodeo中利用Python生成分析數據,你可以在here下載Rodeo的Mac,Windows和Linux的安裝文件。

首先,我們先生成一下數據并添加噪聲。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

importnumpyasnp

importpylabaspl

x=np.random.uniform(1,100,1000)

y=np.log(x)+np.random.normal(0,.3,1000)

pl.scatter(x,y,s=1,label="log(x) with noise")

pl.plot(np.arange(1,100),np.log(np.arange(1,100)),c="b",label="log(x) true function")

pl.xlabel("x")

pl.ylabel("f(x) = log(x)")

pl.legend(loc="best")

pl.title("A Basic Log Function")

pl.show()

得到如下結果:

如果我們建立了一個基本的線性模型通過使用x來預測y,我們需要作一條直線,一定成都市算是平分log(x)函數。而如果我們使用隨機森林算法,它可以更好的逼近log(x)曲線從而使得它看起來更像實際的函數。

當然,你也可以說隨機森林對log(x)函數有點過擬合。不管怎么樣,這說明了隨機森林并不限于線性問題。

3 使用方法

3.1 特征選擇

隨機森林的一個最好用例是特征選擇。嘗試很多個決策樹變量的一個副產品就是,你可以檢查變量在每棵樹中表現的是最佳還是最糟糕。

當一些樹使用一個變量,而其他的不使用這個變量,你就可以對比信息的丟失或增加。實現的比較好的隨機森林工具能夠為你做這些事情,所以你需要做的僅僅是去查看那個方法或參數。

在下述的例子中,我們嘗試弄明白區分紅酒或白酒時,哪些變量是最重要的。

3.2 分類

隨機森林也很善長分類問題。它可以被用于為多個可能目標類別做預測,它也可以在調整后輸出概率。你需要注意的一件事情是過擬合。

隨機森林容易產生過擬合,特別是在數據集相對小的時候。當你的模型對于測試集合做出“太好”的預測的時候就應該懷疑一下了。避免過擬合的一個方法是在模型中只使用有相關性的特征,比如使用之前提到的特征選擇。

3.3 回歸

隨機森林也可以用于回歸問題。

我發現,不像其他的方法,隨機森林非常擅長于分類變量或分類變量與連續變量混合的情況。

4 一個簡單的Python示例

1

2

3

4

5

6

7

8

fromsklearn.datasetsimportload_iris

fromsklearn.ensembleimportRandomForestClassifier

importpandasaspd

importnumpyasnp

iris=load_iris()

df=pd.DataFrame(iris.data,columns=iris.feature_names)

df['is_train']=np.random.uniform(0,1,len(df))

下面就是你應該看到的結果了。由于我們隨機選擇數據,所以實際結果每次都會不一樣。

preds

sertosa

versicolor

virginica

actual

sertosa

6

0

0

versicolor

0

16

1

virginica

0

0

12

總結

以上是生活随笔為你收集整理的python随机森林库_随机森林算法入门(python)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。