日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

UA MATH571A 多元线性回归V 自相关与非线性模型简介

發(fā)布時間:2025/4/14 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 UA MATH571A 多元线性回归V 自相关与非线性模型简介 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

UA MATH571A 多元線性回歸V 自相關(guān)與非線性模型簡介

  • 一階誤差自相關(guān)模型
    • Durbin-Watson檢驗
    • 一階自相關(guān)的消去
      • Cochrane-Orcutt方法
      • Hildreth-Lu方法
  • 非線性回歸及其最小二乘估計
  • 神經(jīng)網(wǎng)絡(luò)簡介
    • Penalized Least Square

一階誤差自相關(guān)模型

時間序列數(shù)據(jù)誤差項可能存在自相關(guān),比較簡單的處理方法是假設(shè)誤差項服從一階自相關(guān)模型(First-order Auto-correlation Error Model)。假設(shè)Yt,t=1,2...,TY_t,t=1,2...,TYt?,t=1,2...,T表示被解釋變量的時間序列數(shù)據(jù),XtX_tXt?表示常數(shù)項以及p?1p-1p?1個被解釋變量的時間序列數(shù)據(jù)
Yt=Xtβ+?t?t=ρ?t?1+utY_t = X_t \beta + \epsilon_t \\ \epsilon_t = \rho \epsilon_{t-1} + u_t Yt?=Xt?β+?t??t?=ρ?t?1?+ut?
其中參數(shù)ρ\rhoρ需要滿足∣ρ∣<1|\rho|<1ρ<1以保證平穩(wěn)性,另外ut~N(0,σ2)u_t \sim N(0,\sigma^2)ut?N(0,σ2),且Cov(ut,us)=0,t≠sCov(u_t,u_s)=0, t \ne sCov(ut?,us?)=0,t?=s。誤差項具有如下性質(zhì)

  • E(?t)=0E(\epsilon_t)=0E(?t?)=0
  • Var(?t)=σ21?ρ2Var(\epsilon_t)=\frac{\sigma^2}{1-\rho^2}Var(?t?)=1?ρ2σ2?
  • Cov(?t,?t?s)=ρs(σ21?ρ2)Cov(\epsilon_t,\epsilon_{t-s})=\rho^s(\frac{\sigma^2}{1-\rho^2})Cov(?t?,?t?s?)=ρs(1?ρ2σ2?)
  • Corr(?t,?t?s)=ρsCorr(\epsilon_t,\epsilon_{t-s})=\rho^sCorr(?t?,?t?s?)=ρs
  • 假設(shè)誤差項同分布,則
    E(?t)=ρE(?t?1)+0?E(?t)=0,?tE(\epsilon_t) = \rho E(\epsilon_{t-1}) + 0 \Longleftrightarrow E(\epsilon_t)=0, \forall t E(?t?)=ρE(?t?1?)+0?E(?t?)=0,?t
    Var(?t)=ρ2Var(?t?1)+σ2?Var(?t)=σ21?ρ2,?tVar(\epsilon_t) = \rho^2 Var(\epsilon_{t-1}) + \sigma^2 \Longleftrightarrow Var(\epsilon_t)=\frac{\sigma^2}{1-\rho^2}, \forall t Var(?t?)=ρ2Var(?t?1?)+σ2?Var(?t?)=1?ρ2σ2?,?t
    根據(jù)誤差項的遞推關(guān)系
    ?t=ρ(ρ?t?2+ut?1)+ut=ρ2?t?2+(ut+ρut?1)=...=ρs?t?s+∑j=0s?1ρjut?j\epsilon_t = \rho(\rho\epsilon_{t-2}+u_{t-1})+u_{t} = \rho^2 \epsilon_{t-2} + (u_t+\rho u_{t-1}) \\ = ... = \rho^s \epsilon_{t-s} + \sum_{j=0}^{s-1} \rho^ju_{t-j} ?t?=ρ(ρ?t?2?+ut?1?)+ut?=ρ2?t?2?+(ut?+ρut?1?)=...=ρs?t?s?+j=0s?1?ρjut?j?
    Cov(?t,?t?s)=ρsVar(?),Corr(?t,?t?s)=ρsCov(\epsilon_t,\epsilon_{t-s})=\rho^s Var(\epsilon), Corr(\epsilon_t,\epsilon_{t-s})=\rho^s Cov(?t?,?t?s?)=ρsVar(?),Corr(?t?,?t?s?)=ρs

    Durbin-Watson檢驗

    在使用一階誤差自相關(guān)模型之前,要先驗證誤差項的一階自相關(guān)關(guān)系是否顯著,Durbin-Watson檢驗(簡稱DW檢驗)可以達到這個目的。
    H0:ρ=0Ha:ρ>0H_0: \rho = 0 \\ H_a: \rho > 0 H0?:ρ=0Ha?:ρ>0
    首先擬合多元回歸模型并計算殘差et,t=1,2,...,Te_t,t=1,2,...,Tet?,t=1,2,...,T,然后計算DW統(tǒng)計量
    DW=∑t=2T(et?et?1)2∑t=1Tet2DW = \frac{\sum_{t=2}^T (e_t - e_{t-1})^2}{\sum_{t=1}^T e_t^2} DW=t=1T?et2?t=2T?(et??et?1?)2?
    這個統(tǒng)計量的精確分布難以獲得,但Durbin和Watson給出了它的上界dUd_UdU?和下界dLd_LdL?。若DW>dUDW>d_UDW>dU?,接受原假設(shè);若DW<dLDW<d_LDW<dL?,接受備擇假設(shè);其他情況無法下結(jié)論。

    一階自相關(guān)的消去

    一階誤差自相關(guān)模型可以看成是一個比較簡單的兩層模型,多元回歸是測量方程,誤差的一階自回歸是狀態(tài)方程。盡管如此,這個模型還是不夠直觀,因此在確定誤差項存在一階自回歸后可以采取一些變換使得變換后的模型是線性回歸。若誤差項存在一階自回歸,則被解釋變量也會存在一階自回歸。定義
    Yt?=Yt?ρYt?1,Xt?=Xt?ρXt?1Y_t^{*} = Y_t - \rho Y_{t-1}, X_t^* = X_t - \rho X_{t-1} Yt??=Yt??ρYt?1?,Xt??=Xt??ρXt?1?
    根據(jù)一階自相關(guān)誤差模型,
    Yt?=Yt?ρYt?1=Xtβ+?t?ρ(Xt?1β+?t?1)=(Xt?ρXt?1)β+(?t?ρ?t?1)=Xt?β+utY_t^{*} = Y_t - \rho Y_{t-1} = X_t \beta + \epsilon_t - \rho(X_{t-1} \beta + \epsilon_{t-1} ) \\ = (X_t - \rho X_{t-1})\beta + (\epsilon_t-\rho \epsilon_{t-1}) = X_t^* \beta + u_t Yt??=Yt??ρYt?1?=Xt?β+?t??ρ(Xt?1?β+?t?1?)=(Xt??ρXt?1?)β+(?t??ρ?t?1?)=Xt??β+ut?
    這樣就實現(xiàn)了將兩層的線性模型化為多元線性回歸。然而這個方法需要已知ρ\rhoρ,或者先給出ρ\rhoρ的估計量。以下給出三種具體的操作方法。

    Cochrane-Orcutt方法

    先直接擬合多元線性回歸Yt=Xtβ+?tY_t=X_t\beta + \epsilon_tYt?=Xt?β+?t?得到殘差ete_tet?,按估計相關(guān)性系數(shù)的方法估計rhorhorho,假設(shè)估計量為rrr
    r=∑t=2Tetet?1∑t=2Tet?12r = \frac{\sum_{t= 2}^T e_t e_{t-1}}{\sum_{t=2}^T e_{t-1}^2} r=t=2T?et?12?t=2T?et?et?1??
    用這個估計量對數(shù)據(jù)做變換,并估計回歸模型Yt?=Xt?β+utY_t^{*} = X_t^* \beta + u_tYt??=Xt??β+ut?。需要注意的是,還需要對這個回歸殘差做Durbin-Watson檢驗,如果這個變換后的回歸模型誤差項是否還有自相關(guān),如果還存在自相關(guān),就再做一個這個操作。

    Hildreth-Lu方法

    假設(shè)系數(shù)的估計量為β^\hat{\beta}β^?,則模型的SSE為
    SSE=∑t=1T(Yt??Y^t?)2SSE = \sum_{t=1}^T (Y_t^{*} - \hat{Y}_t^{*})^2 SSE=t=1T?(Yt???Y^t??)2
    Hildreth-Lu方法和之前說過的Box-Cox找λ\lambdaλ類似。因為SSE中數(shù)據(jù)的變換與系數(shù)估計量β^\hat{\beta}β^?都取決于ρ\rhoρ,因此可以使用一些搜尋算法找使得SSE最小的ρ\rhoρ的值作為其估計量。

    非線性回歸及其最小二乘估計

    假設(shè)回歸方程為
    Yi=f(Xi,γ)+?iY_i = f(X_i,\gamma) + \epsilon_i Yi?=f(Xi?,γ)+?i?
    其中γ\gammaγ是回歸系數(shù),如果fff關(guān)于γ\gammaγ是線性函數(shù),則模型是線性回歸;如果fff關(guān)于γ\gammaγ是非線性函數(shù),則模型是非線性回歸。系數(shù)γ\gammaγ的估計可以采用最小二乘法
    min?γQ=∑i=1N(Yi?f(Xi,γ))\min_{\gamma} Q=\sum_{i=1}^N (Y_i - f(X_i,\gamma) ) γmin?Q=i=1N?(Yi??f(Xi?,γ))
    求解這個最優(yōu)化可以得到系數(shù)的最小二乘估計量,能否找到解析解完全取決于fff的形式,但大多數(shù)時候都只能用數(shù)值方法求解。比較常用的是Gauss-Newton算法、最速下降法以及Marquardt算法等。

    神經(jīng)網(wǎng)絡(luò)簡介

    這里介紹一下兩層前饋神經(jīng)網(wǎng)絡(luò)(one-hidden-layer,feedforward NN)。Hi∈Rm,i=1,2,...,NH_i \in \mathbb{R}^m,i=1,2,...,NHi?Rm,i=1,2,...,N表示derived predictors,fff是非線性函數(shù),
    Yi=f(Hiβ)+?iY_i = f(H_i \beta) + \epsilon_i Yi?=f(Hi?β)+?i?
    其中HiH_iHi?由被解釋變量決定,定義Hi0=1H_{i0}=1Hi0?=1
    Hij=gj(Xiαj),j=1,2,...,m?1H_{ij} = g_j(X_i\alpha_j), j = 1,2,...,m-1 Hij?=gj?(Xi?αj?),j=1,2,...,m?1
    其中gjg_jgj?是激活函數(shù)。在這個模型中,假設(shè)激活函數(shù)為gj(z)=zg_j(z)=zgj?(z)=z,則模型退化為非線性回歸;若進一步假設(shè)fff是線性函數(shù),則模型退化為線性回歸。

    Penalized Least Square

    上述模型中的參數(shù)為β\betaβα\alphaα,共有m+(m?1)pm+(m-1)pm+(m?1)p個參數(shù)需要估計,相比多元線性回歸的p個而言算是相當(dāng)多了。如果樣本數(shù)量無法保證N>>m+(m?1)pN>>m+(m-1)pN>>m+(m?1)p,就需要注意以下模型是否會過擬合(over fit)。通常處理方法是在最小二乘的基礎(chǔ)上加一個懲罰項(penalty):
    min?β,αQ=∑i=1N[Yi?f(g(Xα)β)]2+pλ(α,β)\min_{\beta,\alpha} Q = \sum_{i=1}^N [Y_i-f(g(X\alpha)\beta)]^2 + p_{\lambda}(\alpha,\beta) β,αmin?Q=i=1N?[Yi??f(g(Xα)β)]2+pλ?(α,β)
    pλ(α,β)=λ(∣∣β∣∣22+∣∣α∣∣22)p_{\lambda}(\alpha,\beta) = \lambda(||\beta||_2^2 + ||\alpha||_2^2) pλ?(α,β)=λ(β22?+α22?)
    參數(shù)λ\lambdaλ的作用是在過擬合與欠擬合(under fit)之間作一個trade-off,如果λ\lambdaλ取得太小,懲罰項就沒什么意義,同樣可能過擬合;如果λ\lambdaλ取得太大,殘差項沒什么意義,相當(dāng)于只是在一味地限制系數(shù)的大小而不去考慮擬合得好不好,這樣就會欠擬合。

    總結(jié)

    以上是生活随笔為你收集整理的UA MATH571A 多元线性回归V 自相关与非线性模型简介的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。