日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

LASSO与Item Response Theory模型中的隐变量选择

發布時間:2025/4/14 编程问答 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 LASSO与Item Response Theory模型中的隐变量选择 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

LASSO與Item Response Theory模型中的隱變量選擇

  • Item Response Theory簡介
    • 統計模型
  • Latent Traits Selection
    • 兩參數模型的LASSO
    • BIC for tuning
    • Latent traits selection的EM算法

這是Latent Variable Selection for Multidimensional Item Response Theory Models via L1 Regularization的簡單介紹。


Item Response Theory簡介

在心理學中,有很多用于測量個人特質(trait)與dichotomous-response、polytomous-response item(就是用一些二選或者多選的問題來看被試者在一些具體場景中的反應)的量表和實驗,基于這些量表與實驗的測量結果,心理學家可以發掘item-trait之間的關系。

下面是幾個二選的例子(如何應對壞男人)

下面是兩個多選問題的例子(gender-orientation的測試)

統計模型

Item Response Theory (IRT)就是很常用的描述item-trait relation的統計模型。用θ=(θ1,?,θK)T\theta=(\theta^1,\cdots,\theta^K)^Tθ=(θ1,?,θK)T表示被試者的特質向量(這個是不可測量的),每一個分量表示被試者的一種潛在特質;考慮JJJ個二選題組成的量表,用YjY_jYj?表示被試者對第jjj個問題的回答,假設我們討論兩參數模型
P(Yj=1∣θ)=F(ajTθ+bj)P(Y_j=1|\theta)=F(a_j^T\theta+b_j)P(Yj?=1θ)=F(ajT?θ+bj?)

其中aj=(aj1,?,ajK)Ta_j=(a_{j1},\cdots,a_{jK})^Taj?=(aj1?,?,ajK?)TF(?)F(\cdot)F(?)是一個累積分布函數,定義
A=(a1,?,aJ),b=(b1,?,bJ)TA = (a_1,\cdots,a_J),b=(b_1,\cdots,b_J)^TA=(a1?,?,aJ?),b=(b1?,?,bJ?)T

aja_jaj?為discrimination parameter vector,bjb_jbj?為difficulty parameter。如果ajk≠0a_{jk} \ne 0ajk??=0,就可以認為特質kkk在被試者對第jjj個問題做出1的回應中起到了一定作用。于是,為了構建特質與被試者在不同情景中的反應之間的關系,我們希望找出在被試者對每一個問題做出回應的過程中起作用的那些特質,這個正是variable selection可以解決的。正式描述的話就是我們希望估計一個0-1矩陣
Λ=(λjk)J×K,λjk=Iajk≠0\Lambda=(\lambda_{jk})_{J \times K}, \lambda_{jk}=I_{a_{jk} \ne 0}Λ=(λjk?)J×K?,λjk?=Iajk??=0?

用來描述item-trait relation。

另外,關于FFF有兩種流行的選擇:
Normal Ogive Model
P(Yj=1∣θ,aj,bj)=∫?∞ajTθ+bje?u222πduP(Y_j=1|\theta,a_j,b_j)=\int_{-\infty}^{a_j^T\theta+b_j}\frac{e^{-\frac{u^2}{2}}}{\sqrt{2\pi}}duP(Yj?=1θ,aj?,bj?)=?ajT?θ+bj??2π?e?2u2??du

Logistics Model

P(Yj=1∣θ,aj,bj)=exp?(ajTθ+bj)1+exp?(ajTθ+bj)P(Y_j=1|\theta,a_j,b_j)=\frac{\exp(a_j^T\theta+b_j)}{1+\exp(a_j^T\theta+b_j)}P(Yj?=1θ,aj?,bj?)=1+exp(ajT?θ+bj?)exp(ajT?θ+bj?)?

在原文中,作者也討論了一種三參數模型:
P(Yj=1∣θ,aj,bj,cj)=cj+(1?cj)F(ajTθ+bj)P(Y_j=1|\theta,a_j,b_j,c_j)=c_j+(1-c_j)F(a_j^T\theta+b_j)P(Yj?=1θ,aj?,bj?,cj?)=cj?+(1?cj?)F(ajT?θ+bj?)

cjc_jcj?表示guessing probability。

Latent Traits Selection

兩參數模型的LASSO

假設有NNN個被試者,他們對JJJ個問題的回答用Y=(Yij)N×JY=(Y_{ij})_{N \times J}Y=(Yij?)N×J?表示,他們的特質滿足θ1,?,θN~iidN(0,Σ)\theta_1,\cdots,\theta_N \sim_{iid} N(0,\Sigma)θ1?,?,θN?iid?N(0,Σ)(概率密度記為?(θ)\phi(\theta)?(θ)),記Θ=(θ1,?,θN)\Theta=(\theta_1,\cdots,\theta_N)Θ=(θ1?,?,θN?),于是兩參數模型的似然函數為(包含complete data YYY與missing data Θ\ThetaΘ
L(A,b∣Y,Θ)=∏i=1N?(θi)∏j=1J[F(ajTθi+bj)]yij[1?F(ajTθi+bj)]1?yijL(A,b|Y,\Theta)=\prod_{i=1}^N\phi(\theta_i)\prod_{j=1}^J [F(a_j^T \theta_i+b_j)]^{y_{ij}} \left[1-F(a_j^T\theta_i+b_j) \right]^{1-y_{ij}}L(A,bY,Θ)=i=1N??(θi?)j=1J?[F(ajT?θi?+bj?)]yij?[1?F(ajT?θi?+bj?)]1?yij?

complete data的對數似然為
l(A,b∣Y)=log?∫Θ∈RK×NL(A,b∣Y,Θ)dΘl(A,b|Y)=\log \int_{\Theta \in \mathbb{R}^{K \times N}} L(A,b|Y,\Theta)d \Thetal(A,bY)=logΘRK×N?L(A,bY,Θ)dΘ

用complete data的對數似然扣掉discrimination parameter的LASSO penalty作為score function,最大化score function可以得到參數的LASSO估計:
(A^η,b^η)=arg?max?l(A,b∣Y)?η∥A∥1(\hat A_{\eta},\hat b_{\eta})=\argmax \ \ l(A,b|Y)-\eta \left\| A\right\|_1(A^η?,b^η?)=argmax??l(A,bY)?ηA1?

其中η>0\eta>0η>0是regularization parameter,
∥A∥1=∑j=1J∑k=1K∣ajk∣\left\|A\right\|_1=\sum_{j=1}^J \sum_{k=1}^K |a_{jk}|A1?=j=1J?k=1K?ajk?

如果η=0\eta=0η=0,那么LASSO估計退化為MLE。

BIC for tuning

原文作者采用BIC選擇regularization parameter η\etaη,IRT的BIC定義為
BIC(Λ?)=?2max?Λ(A)=Λ?,bl(A,b∣Y)+∥A∥0log?N∥A∥0=∑j,kIajk≠0BIC(\Lambda^*)=-2\max_{\Lambda(A)=\Lambda^*,b}l(A,b|Y)+\left\|A \right\|_0\log N \\ \left\| A\right\|_0=\sum_{j,k}I_{a_{jk} \ne 0}BIC(Λ?)=?2Λ(A)=Λ?,bmax?l(A,bY)+A0?logNA0?=j,k?Iajk??=0?

在兩參數模型的LASSO中,我們可以按下面的步驟做tuning:

  • 給定一個η\etaη的取值,得到兩參數模型的LASSO估計A^η,b^η\hat A_{\eta},\hat b_{\eta}A^η?,b^η?
  • 根據A^η\hat A_{\eta}A^η?寫出指標矩陣Λη=Λ(A^η)\Lambda_{\eta}=\Lambda(\hat A_{\eta})Λη?=Λ(A^η?)
  • 對于Λη\Lambda_{\eta}Λη?,計算BIC(Λη)BIC(\Lambda_{\eta})BIC(Λη?)
  • 對于η\etaη取值的一個范圍,計算出對應的BICBICBIC后選出BICBICBIC最小的η?\eta^*η?作為regularization parameter。

    Latent traits selection的EM算法

    這部分我暫時不關注,所以貼原文(希望了解更多細節與數值實驗的同學可以自行閱讀全文)




    總結

    以上是生活随笔為你收集整理的LASSO与Item Response Theory模型中的隐变量选择的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。