日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

python计算均方根误差_如何在Python中创建线性回归机器学习模型?「入门篇」

發(fā)布時(shí)間:2025/4/16 python 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python计算均方根误差_如何在Python中创建线性回归机器学习模型?「入门篇」 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

線性回歸和邏輯回歸是當(dāng)今很受歡迎的兩種機(jī)器學(xué)習(xí)模型。

本文將教你如何使用 scikit-learn 庫在Python中創(chuàng)建、訓(xùn)練和測試你的第一個(gè)線性、邏輯回歸機(jī)器學(xué)習(xí)模型,本文適合大部分的新人小白。

線性回歸機(jī)器學(xué)習(xí)模型

1.要使用的數(shù)據(jù)集

由于線性回歸是我們在本文中學(xué)習(xí)的第一個(gè)機(jī)器學(xué)習(xí)模型,因此在本文中,我們將使用人工創(chuàng)建的數(shù)據(jù)集。這能讓你可以更加專注于學(xué)習(xí)理解機(jī)器學(xué)習(xí)的概念,并避免在清理或處理數(shù)據(jù)上花費(fèi)不必要的時(shí)間。

更具體地說,我們將使用住房數(shù)據(jù)的數(shù)據(jù)集并嘗試預(yù)測住房價(jià)格。在構(gòu)建模型之前,我們首先需要導(dǎo)入所需的庫。

2.需要用到的Python庫

我們需要導(dǎo)入的第一個(gè)庫是 pandas,它是一個(gè)“panel data”的組合體,是處理表格數(shù)據(jù)比較流行的Python庫。

一般我們會用pd來命名該庫,你可以使用以下語句導(dǎo)入Pandas:

import?pandasaspd

接下來,我們需要導(dǎo)入NumPy,這是一個(gè)很常用的數(shù)值計(jì)算庫。Numpy以其Numpy數(shù)組數(shù)據(jù)結(jié)構(gòu)以及非常有用的reshee、arange和append而聞名。

一般我們也會用np作為Numpy的別名,你可以使用以下語句進(jìn)行導(dǎo)入:

import?numpyasnp

接下來,我們需要導(dǎo)入matplotlib,這是Python很受歡迎的數(shù)據(jù)可視化庫。

matplotlib通常以別名導(dǎo)入plt。你可以使用以下語句導(dǎo)入:

import?matplotlib.pyplotasplt

%matplotlib?inline

該%matplotlib inline語句可以將我們的matplotlib可視化直接嵌入到我們的Jupyter Notebook中,更易于訪問和解釋。

最后,你還要導(dǎo)入seaborn,這是另一個(gè)Python數(shù)據(jù)可視化庫,你可以更輕松地使用matplotlib創(chuàng)建漂亮的可視化數(shù)據(jù)。

你可以使用以下語句導(dǎo)入:

import?seabornassns

總結(jié)一下,這是本文必需的庫的導(dǎo)入:

import?pandasaspd

import?numpy?asnp

import?matplotlib.pyplot?asplt

%matplotlib?inline

import?seaborn?assns

導(dǎo)入數(shù)據(jù)集

如前所述,我們將使用住房信息數(shù)據(jù)集。在下面的URL鏈接中,有我們的.csv文件數(shù)據(jù)集:

https://nickmccullum.com/files/Housing_Data.csv

要將數(shù)據(jù)集導(dǎo)入到Jupyter Notebook中,首先要做的是通過將該URL復(fù)制并粘貼到瀏覽器中來下載文件。然后,將文件移到Jupyter Notebook的目錄下。

完成此操作后,以下Python語句可以將住房數(shù)據(jù)集導(dǎo)入到Jupyter Notebook中:

raw_data?=?pd.read_csv('Housing_Data.csv')

該數(shù)據(jù)集具有許多功能,包括:

房屋面積的平均售價(jià)

該地區(qū)平均客房總數(shù)

房子賣出的價(jià)格

房子的地址

此數(shù)據(jù)是隨機(jī)生成的,因此你會看到一些可能沒有意義的細(xì)微差別(例如,在應(yīng)該為整數(shù)的數(shù)字之后的大量小數(shù)位)。

了解數(shù)據(jù)集

現(xiàn)在已經(jīng)在raw_data變量下導(dǎo)入了數(shù)據(jù)集,你可以使用該info方法獲取有關(guān)數(shù)據(jù)集的一些高級信息。具體來說,運(yùn)行raw_data.info()可以得出:

RangeIndex:?5000?entries,?0?to4999

Data?columns?(total?7?columns):

Avg.?Area?Income????????????????5000?non-nullfloat64

Avg.?Area?House?Age?????????????5000?non-nullfloat64

Avg.?Area?NumberofRooms???????5000?non-nullfloat64

Avg.?Area?NumberofBedrooms????5000?non-nullfloat64

Area?Population?????????????????5000?non-nullfloat64

Price???????????????????????????5000?non-nullfloat64

Address?????????????????????????5000?non-nullobject

dtypes:?float64(6),?object(1)

memory?usage:?273.6+?KB

另一個(gè)有用的方法是生成數(shù)據(jù)。您可以為此使用seaborn方法pairplot,并將整個(gè)DataFrame作為參數(shù)傳遞。通過下面的一行代碼進(jìn)行說明:

sns.pairplot(raw_data)

該語句的輸出如下:

接下來,讓我們開始構(gòu)建線性回歸模型。

建立機(jī)器學(xué)習(xí)線性回歸模型

我們需要做的第一件事是將我們的數(shù)據(jù)分為一個(gè)x-array(包含我們將用于進(jìn)行預(yù)測y-array的數(shù)據(jù))和一個(gè)(包含我們正在嘗試進(jìn)行預(yù)測的數(shù)據(jù))。

首先,我們應(yīng)該決定要包括哪些列,你可以使用生成DataFrame列的列表,該列表raw_data.columns輸出:

Index(['Avg.?Area?Income','Avg.?Area?House?Age','Avg.?Area?Number?of?Rooms',

'Avg.?Area?Number?of?Bedrooms','Area?Population','Price','Address'],

dtype='object')

x-array除了價(jià)格(因?yàn)檫@是我們要預(yù)測的變量)和地址(因?yàn)樗鼉H包含文本)之外,我們將在所有這些變量中使用。

讓我們創(chuàng)建x-array并將其分配給名為的變量x。

x?=?raw_data[['Avg.?Area?Income','Avg.?Area?House?Age','Avg.?Area?Number?of?Rooms',

'Avg.?Area?Number?of?Bedrooms','Area?Population']]

接下來,讓我們創(chuàng)建我們的代碼y-array并將其分配給名為的變量y。

y?=?raw_data['Price']

我們已經(jīng)成功地將數(shù)據(jù)集劃分為和x-array(分別為模型的輸入值)和和y-array(分別為模型的輸出值)。在下一部分中,我們將學(xué)習(xí)如何將數(shù)據(jù)集進(jìn)一步分為訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)。

將我們的數(shù)據(jù)集分為訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)

scikit-learn 可以很容易地將我們的數(shù)據(jù)集分為訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)。為此,我們需要 train_test_split 從中的 model_selection 模塊導(dǎo)入函數(shù) scikit-learn。

這是執(zhí)行此操作的完整代碼:

fromsklearn.model_selection?import?train_test_split

該train_test_split數(shù)據(jù)接受三個(gè)參數(shù):

x-array

y-array

測試數(shù)據(jù)的期望大小

有了這些參數(shù),該 train_test_split 功能將為我們拆分?jǐn)?shù)據(jù)!如果我們想讓測試數(shù)據(jù)占整個(gè)數(shù)據(jù)集的30%,可以使用以下代碼:

x_train,?x_test,?y_train,?y_test?=?train_test_split(x,?y,?test_size?=?0.3)

讓我們解開這里發(fā)生的一切。

train_test_split 函數(shù)返回長度為4的Python列表,其中列表中的每個(gè)項(xiàng)分別是x_train、x_test、y_train和y_test。然后我們使用列表解包將正確的值賦給正確的變量名。

現(xiàn)在我們已經(jīng)正確地劃分了數(shù)據(jù)集,是時(shí)候構(gòu)建和訓(xùn)練我們的線性回歸機(jī)器學(xué)習(xí)模型了。

建立和訓(xùn)練模型

我們需要做的第一件事是從scikit learn導(dǎo)入LinearRegression估計(jì)器。下面是Python語句:

fromsklearn.linear_model?import?LinearRegression

接下來,我們需要創(chuàng)建一個(gè)線性回歸Python對象的實(shí)例。我們將把它賦給一個(gè)名為model的變量。下面是代碼:

model?=?LinearRegression()

我們可以使用 scikit-learn 中的 fit 方法在訓(xùn)練數(shù)據(jù)上訓(xùn)練該模型。

model.fit(x_train,?y_train)

我們的模型現(xiàn)已訓(xùn)練完畢,可以使用以下語句檢查模型的每個(gè)系數(shù):

print(model.coef_)

輸出:

[2.16176350e+01?1.65221120e+05?1.21405377e+05?1.31871878e+03

1.52251955e+01]

類似地,下面是如何查看回歸方程的截距:

print(model.intercept_)

輸出:

-2641372.6673013503

查看系數(shù)的更好方法是將它們放在一個(gè)數(shù)據(jù)幀中,可以通過以下語句實(shí)現(xiàn):

pd.DataFrame(model.coef_,?x.columns,?columns?=?['Coeff'])

這種情況下的輸出更容易理解:

讓我們花點(diǎn)時(shí)間來理解這些系數(shù)的含義。讓我們具體看看面積人口變量,它的系數(shù)約為15。

這意味著,如果你保持所有其他變量不變,那么區(qū)域人口增加一個(gè)單位將導(dǎo)致預(yù)測變量(在本例中為價(jià)格)增加15個(gè)單位。

換言之,某個(gè)特定變量上的大系數(shù)意味著該變量對您試圖預(yù)測的變量的值有很大的影響。同樣,小值的影響也很小。

現(xiàn)在我們已經(jīng)生成了我們的第一個(gè)機(jī)器學(xué)習(xí)線性回歸模型,現(xiàn)在是時(shí)候使用該模型從我們的測試數(shù)據(jù)集進(jìn)行預(yù)測了。

根據(jù)我們的模型做出預(yù)測

scikit-learn使得從機(jī)器學(xué)習(xí)模型做出預(yù)測變得非常容易,我們只需調(diào)用前面創(chuàng)建的模型變量的 predict 方法。

因?yàn)?predict 變量是用來進(jìn)行預(yù)測的,所以它只接受一個(gè) x-array 參數(shù),它將為我們生成y值!

以下是使用 predict 方法從我們的模型生成預(yù)測所需的代碼:

predictions?=?model.predict(x_test)

預(yù)測變量保存 x_test 中存儲的要素的預(yù)測值。 由于我們使用 train_test_split 方法將實(shí)際值存儲在y_test中,因此我們接下來要做的是將預(yù)測數(shù)組的值與 y_test 的值進(jìn)行比較。

這里有一種簡單的方法是使用散點(diǎn)圖繪制兩個(gè)數(shù)組。 使用 plt.scatter 方法可以輕松構(gòu)建 matplotlib 散點(diǎn)圖。 以下為代碼:

plt.scatter(y_test,?predictions)

這是代碼生成的散點(diǎn)圖:

如圖所見,我們的預(yù)測值非常接近數(shù)據(jù)集中觀測值的實(shí)際值。在這個(gè)散點(diǎn)圖中一條完美的直線表明我們的模型完美地預(yù)測了 y-array 的值。

另一種直觀評估模型性能的方法是繪制殘差,即實(shí)際y數(shù)組值與預(yù)測 y-array 值之間的差異。

使用以下代碼語句可以輕松實(shí)現(xiàn):

plt.hist(y_test?-?predictions)

以下為代碼生成的可視化效果:

這是我們的機(jī)器學(xué)習(xí)模型殘差的直方圖。

你可能會注意到,我們的機(jī)器學(xué)習(xí)模型中的殘差似乎呈正態(tài)分布。這正好是一個(gè)很好的信號!

它表明我們已經(jīng)選擇了適當(dāng)?shù)哪P皖愋?在這種情況下為線性回歸)來根據(jù)我們的數(shù)據(jù)集進(jìn)行預(yù)測。在本課程的后面,我們將詳細(xì)了解如何確保使用了正確的模型。

測試模型的性能

我們在本課程開始時(shí)就了解到,回歸機(jī)器學(xué)習(xí)模型使用了三個(gè)主要性能指標(biāo):

平均絕對誤差

均方誤差

均方根誤差

現(xiàn)在,我們來看看如何為本文中構(gòu)建的模型計(jì)算每個(gè)指標(biāo)。在繼續(xù)之前,記得在Jupyter Notebook中運(yùn)行以下import語句:

fromsklearn?import?metrics

平均絕對誤差(MAE)

可以使用以下語句計(jì)算Python中的平均絕對誤差:

metrics.mean_absolute_error(y_test,?predictions)

均方誤差(MSE)

同樣,你可以使用以下語句在Python中計(jì)算均方誤差:

metrics.mean_squared_error(y_test,?predictions)

均方根誤差(RMSE)

與平均絕對誤差和均方誤差不同,scikit learn實(shí)際上沒有計(jì)算均方根誤差的內(nèi)置方法。

幸運(yùn)的是,它真的不需要。由于均方根誤差只是均方根誤差的平方根,因此可以使用NumPy的sqrt方法輕松計(jì)算:

np.sqrt(metrics.mean_squared_error(y_test,?predictions))

附完整代碼

這是此Python線性回歸機(jī)器學(xué)習(xí)教程的全部代碼。

import?pandasaspd

import?numpy?asnp

import?matplotlib.pyplot?asplt

import?seaborn?assns

%matplotlib?inline

raw_data?=?pd.read_csv('Housing_Data.csv')

x?=?raw_data[['Avg.?Area?Income','Avg.?Area?House?Age','Avg.?Area?Number?of?Rooms',

'Avg.?Area?Number?of?Bedrooms','Area?Population']]

y?=?raw_data['Price']

fromsklearn.model_selection?import?train_test_split

x_train,?x_test,?y_train,?y_test?=?train_test_split(x,?y,?test_size?=?0.3)

fromsklearn.linear_model?import?LinearRegression

model?=?LinearRegression()

model.fit(x_train,?y_train)

print(model.coef_)

print(model.intercept_)

pd.DataFrame(model.coef_,?x.columns,?columns?=?['Coeff'])

predictions?=?model.predict(x_test)

#?plt.scatter(y_test,?predictions)

plt.hist(y_test?-?predictions)

fromsklearn?import?metrics

metrics.mean_absolute_error(y_test,?predictions)

metrics.mean_squared_error(y_test,?predictions)

np.sqrt(metrics.mean_squared_error(y_test,?predictions))

【編輯推薦】

【責(zé)任編輯:華軒 TEL:(010)68476606】

點(diǎn)贊 0

總結(jié)

以上是生活随笔為你收集整理的python计算均方根误差_如何在Python中创建线性回归机器学习模型?「入门篇」的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。