日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

多元线性回归的探索

發布時間:2023/12/20 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 多元线性回归的探索 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

        • 1、分析二變量的關系
        • 2、多元線性回歸
        • 3、顯著交互項的多元線性回歸(汽車數據集)

數據使用的依然是state.x77數據集為例,探究一個州的犯罪率和其他因素的關系,包括人口、文盲率、平均收入和結霜天數(溫度在冰點一下的平均天數)。

標簽解釋:Murder犯罪率、Population人口、Illiteracy文盲率、Income收入、Frost結霜天數

交互項的多元線性回歸主要用mtcars數據中的汽車數據,對汽車重量和馬力作為預測變量,并包含交互項來擬合回歸模型。

其中,hp汽車功率,wt汽車重量。

實驗過程:

1、分析二變量的關系

檢測各變量的相關性,由此可見文盲率和犯罪率的關系是比較大的,達到約70%。

????????scatterplotMatrix()函數在非對角線繪制散點圖,并添加了平滑和線性擬合曲線,對角線是繪制每個變量的密度圖和軸須圖。
????????其中謀殺率是雙峰曲線,每個預測變量存在偏差,看謀殺率第一行圖的數據,從擬合效果看,謀殺率隨人口和文盲率的增加而增加,隨收入水平和結霜天數下降而下降。
????????看最后一行圖最后一個圖,是結霜天數,曲線是結霜天數的擬合效果,縱軸為結霜天數,其他圖為結霜天數的影響下的變量的變化,可以看出越冷的時候,文盲率越低,收入會越高

2、多元線性回歸

預測變量不為1時,回歸系數表明一個預測變量增加一個單位,其他預測變量保持不變時,因變量將要增加的數量。

①lm(Murder ~ Population + Illiteracy + Income + Frost,data=states)函數擬合多元線性回歸
②在這次實驗中,可以從結果看出,文盲率的回歸系數為4.14(注:4.134e+00=4.134x10^0),所以說,在控制住人口、收入以及氣溫的情況下,文盲率上升1%,那么謀殺率會上升4.14%,它的系數在p<0.001的水平,顯著不為零的。

再看Forst,回歸系數為0.00058,同理的分析,它并不是顯著不為0,所以說并不呈線性的關系。
注:
一個星號對應在5%的顯著性水平顯著,即p<0.05,p<0.05說明某件事情的發生至少有95%的把握。
兩個星號對應1%水平顯著,即p<0.01,p<0.01說明某件事情的發生至少有99%的把握。
三個星號對應0.1%顯著水平,即p<0.001,p<0.001說明某件事情的發生至少有99.9%的把握。
星號越多,表明p值越小,顯著性越強。


預測變量可以解釋了各州謀殺率57%的方差。

3、顯著交互項的多元線性回歸(汽車數據集)

主要從Pr(>|t|)來進行探究

從Pr來看,功率和車重的交互項是顯著的,意味著響應變量與其中一個預測變量的關系依賴于另一個預測變量的水平,再次意味著每加侖汽油行駛英里數與汽車功率的關系依車重不同而不同。

預測模型mpg為mpg=49.81 - 0.12 x hp - 8.22 x wt + 0.03 x hp x wt

利用wt=3.2,少于一個標準差或多余一個,代入,即wt=4.2和wt=2.2。
將wt分別代入時,會發現mpg的預期改變在減少,使用effects包的effect函數詳細表示為如下圖。
清晰可得,功率與每加侖汽油行駛英里數的關系隨車重增加減弱了,當wt=4.2,直線幾乎水平,表明hp增加,mpg不會發生改變。

> #檢測各變量的相關性 > states <- as.data.frame(state.x77[,c("Murder","Population","Illiteracy","Income","Frost")])> cor(states)Murder Population Illiteracy Income Frost Murder 1.0000000 0.3436428 0.7029752 -0.2300776 -0.5388834 Population 0.3436428 1.0000000 0.1076224 0.2082276 -0.3321525 Illiteracy 0.7029752 0.1076224 1.0000000 -0.4370752 -0.6719470 Income -0.2300776 0.2082276 -0.4370752 1.0000000 0.2262822 Frost -0.5388834 -0.3321525 -0.6719470 0.2262822 1.0000000> #檢測二變量關系 > library(car)> scatterplotMatrix(states,spread=FALSE,smooth.args=list(lty=2),main="Scatter Plot Matrix")> #多元線性回歸 > fit <- lm(Murder ~ Population + Illiteracy + Income + Frost,data=states)> summary(fit)Call: lm(formula = Murder ~ Population + Illiteracy + Income + Frost, data = states)Residuals:Min 1Q Median 3Q Max -4.7960 -1.6495 -0.0811 1.4815 7.6210 Coefficients:Estimate Std. Error t value Pr(>|t|) (Intercept) 1.235e+00 3.866e+00 0.319 0.7510 Population 2.237e-04 9.052e-05 2.471 0.0173 * Illiteracy 4.143e+00 8.744e-01 4.738 2.19e-05 *** Income 6.442e-05 6.837e-04 0.094 0.9253 Frost 5.813e-04 1.005e-02 0.058 0.9541 --- Signif. codes: 0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 2.535 on 45 degrees of freedom Multiple R-squared: 0.567, Adjusted R-squared: 0.5285 F-statistic: 14.73 on 4 and 45 DF, p-value: 9.133e-08> #有顯著交互項的多元線性回歸 > fit1 <- lm(mpg ~ hp + wt + hp:wt,data = mtcars)> summary(fit1)Call: lm(formula = mpg ~ hp + wt + hp:wt, data = mtcars)Residuals:Min 1Q Median 3Q Max -3.0632 -1.6491 -0.7362 1.4211 4.5513 Coefficients:Estimate Std. Error t value Pr(>|t|) (Intercept) 49.80842 3.60516 13.816 5.01e-14 *** hp -0.12010 0.02470 -4.863 4.04e-05 *** wt -8.21662 1.26971 -6.471 5.20e-07 *** hp:wt 0.02785 0.00742 3.753 0.000811 *** --- Signif. codes: 0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1Residual standard error: 2.153 on 28 degrees of freedom Multiple R-squared: 0.8848, Adjusted R-squared: 0.8724 F-statistic: 71.66 on 3 and 28 DF, p-value: 2.981e-13> library(statmod)> library(carData)> library(effects)> plot(effect("hp:wt",fit1,,list(wt=c(2.2,3.2,4.2))),multiline=TRUE) There were 50 or more warnings (use warnings() to see the first 50)

總結

以上是生活随笔為你收集整理的多元线性回归的探索的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。