日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Sentiment Classification towards Question-Answering with Hierarchical Matching Network 论文阅读笔记

發(fā)布時(shí)間:2024/1/8 编程问答 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Sentiment Classification towards Question-Answering with Hierarchical Matching Network 论文阅读笔记 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

Sentiment Classification towards Question-Answering with Hierarchical Matching Network 論文閱讀筆記

? ? ? ?這篇論文介紹的是關(guān)于電商平臺(tái)問答的情感分析,類似淘寶的“問大家”這種形式的問題對(duì),根據(jù)問題答案對(duì)來分析其中的情感。
論文地址:https://aclweb.org/anthology/D18-1401
數(shù)據(jù)鏈接地址:https://github.com/clshenNLP/QASC/
代碼地址:暫無代碼。

(1)該論文的貢獻(xiàn)主要有兩個(gè):

  • 提出了一個(gè)新問題,即問答情感分析。并且上傳了一份用于研究該問題的標(biāo)注數(shù)據(jù)。數(shù)據(jù)鏈接地址:https://github.com/clshenNLP/QASC/
  • 對(duì)這個(gè)新問題提出了一種專門的解決方法,即題目中的分層匹配神經(jīng)網(wǎng)絡(luò)。
  • (2)論文概括

    ? ? ? ?該論文首先介紹了這個(gè)任務(wù)描述,然后分析這種任務(wù)為什么不適合直接用傳統(tǒng)的情感分析技術(shù)來進(jìn)行研究,并提出了一種專門針對(duì)這種問答的情感分析研究方法,叫作分層匹配神經(jīng)網(wǎng)絡(luò),該方法分為三步:

  • 將問題和答案都分解為一個(gè)個(gè)短句,然后對(duì)于每個(gè)Q和A中的短句構(gòu)建 [Q-sentence, A-sentence]單元。加入Question有N個(gè)句子,Answer有M個(gè)句子,那么我們就有N*M個(gè)這樣的短句匹配單元。
  • 使用一個(gè)QA雙向匹配層,將每個(gè)[Q-sentence, A-sentence]匹配pair單元編碼為一個(gè)向量,以便用于后續(xù)情感分析。注意這里的雙向的含義,并不是指使用的是雙向LSTM,而是指作者在計(jì)算匹配pair單元表示向量的時(shí)候,使用的Attention機(jī)制是雙向的,問題短句和答案短句彼此互相做Attention,計(jì)算問題短句的時(shí)候使用答案短句的表示與之來做Attention,計(jì)算答案短句的表示的時(shí)候使用問題短句的表示來做Attention,這就是所謂的雙向匹配。
  • 使用自我匹配注意力層(self-matching attention layer)讓模型自動(dòng)捕捉每個(gè)[Q-sentence, A-sentence]匹配向量的重要程度,以便更好的推斷Q-A的情感極性。這里是針對(duì)第二步生成的一個(gè)個(gè)匹配向量又做了一次Self-Matching Attention,這一次是句子級(jí)別的Attention。
  • (3)分層匹配神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)詳細(xì)說明

    分層匹配神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:

    下面是其中QA雙向匹配機(jī)制的詳細(xì)結(jié)構(gòu)圖:

    ? ? ? ?注意上圖是針對(duì)問題的第i個(gè)句子與回答的第j個(gè)句子所組成的問答短句pair來進(jìn)行分析的,以這樣一個(gè)短句pair作為輸入,最后輸出的是這個(gè)問答短句pair的一個(gè)相關(guān)性向量。所以下面的文字中提到的問題句子指的就是問題的第i個(gè)句子,回答句子就是回答中的第j個(gè)句子,都只是一個(gè)短句而已。
    ? ? ? ?問題句子和答案句子匹配向量的計(jì)算思路很簡(jiǎn)單,實(shí)際上就是把問題句子和答案句子的最終表示拼接在一起,就表示它倆的匹配向量。計(jì)算句子表示向量的方法也很簡(jiǎn)單,就是把句子作為BiLSTM的輸入,然后對(duì)各個(gè)時(shí)刻的輸出加權(quán)求和,權(quán)重是通過Attention機(jī)制計(jì)算出來的,關(guān)鍵點(diǎn)也就在這個(gè)Attention的計(jì)算上,使用的是問題句子表示和答案句子表示彼此互相做Attention的方法,也就是所謂的雙向匹配機(jī)制。
    ? ? ? ? D [ i , j ] D_{[i,j]} D[i,j]?中的第[a,b]個(gè)元素代表問題句子的第a個(gè)單詞與回答句子中的第b個(gè)單詞的語義相關(guān)性評(píng)分。作者采用了兩個(gè)Attention,第一種是Answer-to-Question Attention,也就是使用答案句子對(duì)問題句子進(jìn)行Attention。把 D [ i , j ] D_{[i,j]} D[i,j]?的每一行經(jīng)過神經(jīng)網(wǎng)絡(luò)處理成權(quán)重(上角標(biāo)r代表row), D [ i , j ] D_{[i,j]} D[i,j]?的第k行代表問題句子的第k個(gè)單詞與答案句子的每個(gè)單詞的相關(guān)性,是詞級(jí)別的Attention,實(shí)際上相當(dāng)于用 H A j H_{A_j} HAj?? H Q i H_{Q_i} HQi??的每個(gè)時(shí)刻的輸出進(jìn)行Attention,然后計(jì)算每個(gè)時(shí)刻的權(quán)重,得到 H Q i H_{Q_i} HQi??的加權(quán)后的表示 V [ i , j ] r V_{[i,j]}^r V[i,j]r?
    ? ? ? ?其中 H Q i H_{Q_i} HQi??是問題Q的第i個(gè)句子經(jīng)過BiLSTM后的表示, N i N_i Ni?是時(shí)刻數(shù),即問題句子的單詞數(shù); H A j H_{A_j} HAj??是回答第j個(gè)句子經(jīng)過BiLSTM后的表示, M j M_j Mj?是時(shí)刻數(shù),即回答第j個(gè)句子的單詞數(shù)。其中 h j , m ∈ R d ′ h_{j,m}\in R^{d'} hj,m?Rd,即每個(gè)單詞(時(shí)刻)的表示都是 d ′ d' d維的。具體計(jì)算公式如下:
    H Q i = [ h i , 1 , h i , 2 , … , h i , n , … , h i , N i ] H A j = [ h j , 1 , h j , 2 , … , h j , m , … , h j , M j ] D [ i , j ] = ( H Q i ) ? ? ( H A j ) U [ i , j ] r = tanh ? ( W r ? D [ i , j ] ? ) α [ i , j ] r = softmax ? ( w r ? ? U [ i , j ] r ) V [ i , j ] r = ( H Q i ) ? α [ i , j ] r \begin{aligned} H_{Q_{i}} &=\left[h_{i, 1}, h_{i, 2}, \ldots, h_{i, n}, \ldots, h_{i, N_{i}}\right] \\ H_{A_{j}} &=\left[h_{j, 1}, h_{j, 2}, \ldots, h_{j, m}, \ldots, h_{j, M_{j}}\right] \end{aligned} \\D_{[i, j]}=\left(H_{Q_{i}}\right)^{\top} \cdot\left(H_{A_{j}}\right) \\\begin{array}{c}{U_{[i, j]}^{r}=\tanh \left(W_{r} \cdot D_{[i, j]}^{\top}\right)} \\ {\alpha_{[i, j]}^{r}=\operatorname{softmax}\left(w_{r}^{\top} \cdot U_{[i, j]}^{r}\right)}\end{array} \\ V_{[i, j]}^{r}=\left(H_{Q_{i}}\right) \cdot \alpha_{[i, j]}^{r} HQi??HAj???=[hi,1?,hi,2?,,hi,n?,,hi,Ni??]=[hj,1?,hj,2?,,hj,m?,,hj,Mj??]?D[i,j]?=(HQi??)??(HAj??)U[i,j]r?=tanh(Wr??D[i,j]??)α[i,j]r?=softmax(wr???U[i,j]r?)?V[i,j]r?=(HQi??)?α[i,j]r?
    其中 H Q i ∈ R d ′ × N i , H A j ∈ R d ′ × M j H_{Q_i}\in R^{d'\times N_i},H_{A_j}\in R^{d'\times M_j} HQi??Rd×Ni?,HAj??Rd×Mj?,所以 D [ i , j ] ∈ R N i × M j , W r ∈ R d ′ × M j , w r ∈ R d ′ D_{[i,j]}\in R^{N_i\times M_j},W_r\in R^{d'\times M_j},w_r \in R^{d'} D[i,j]?RNi?×Mj?,Wr?Rd×Mj?,wr?Rd,所以 U [ i , j ] r ∈ R d ′ × N i , α [ i , j ] r ∈ R N i , V [ i , j ] r ∈ R d ′ U_{[i,j]}^r\in R^{d'\times N_i},\alpha_{[i, j]}^{r} \in \mathbb{R}^{N_{i}},V_{[i,j]}^r\in R^{d'} U[i,j]r?Rd×Ni?,α[i,j]r?RNi?V[i,j]r?Rd
    ? ? ? ?而第二種顯然就是Question-to-Answer Attention,也就是使用問題句子對(duì)回答句子進(jìn)行Attention。使用問題句子的表示 H Q i H_{Q_i} HQi??對(duì)答案句子 H A j H_{A_j} HAj??的每個(gè)時(shí)刻進(jìn)行Attention,把 D [ i , j ] D_{[i,j]} D[i,j]?的每一列經(jīng)過神經(jīng)網(wǎng)絡(luò)處理成權(quán)重(上角標(biāo)c代表column),同理我們最后可以得到答案句子的新表示向量 V [ i , j ] c ∈ R d ′ V_{[i,j]}^c \in R^{d'} V[i,j]c?Rd,計(jì)算公式如下:
    U [ i , j ] c = tanh ? ( W c ? D [ i , j ] ) α [ i , j ] c = softmax ? ( w c ? ? U [ i , j ] c ) V [ i , j ] c = ( H A j ) ? α [ i , j ] c \\\begin{array}{c}{U_{[i, j]}^{c}=\tanh \left(W_{c} \cdot D_{[i, j]}\right)} \\ {\alpha_{[i, j]}^{c}=\operatorname{softmax}\left(w_{c}^{\top} \cdot U_{[i, j]}^{c}\right)}\end{array} \\ V_{[i, j]}^{c}=\left(H_{A_{j}}\right) \cdot \alpha_{[i, j]}^{c} U[i,j]c?=tanh(Wc??D[i,j]?)α[i,j]c?=softmax(wc???U[i,j]c?)?V[i,j]c?=(HAj??)?α[i,j]c?
    ? ? ? ?最后,這個(gè)Q-A短句匹配pair的表示向量 V [ i , j ] V_{[i,j]} V[i,j]? V [ i , j ] r V_{[i,j]}^r V[i,j]r? V [ i , j ] c V_{[i,j]}^c V[i,j]c?拼接表示起來,如下公式所示, V [ i , j ] ∈ R 2 d ′ V_{[i,j]}\in R^{2d'} V[i,j]?R2d其中 ⊕ \oplus 代表連接操作符:
    V [ i , j ] = V [ i , j ] r ⊕ V [ i , j ] c V_{[i, j]}=V_{[i, j]}^{r} \oplus V_{[i, j]}^{c} V[i,j]?=V[i,j]r?V[i,j]c?

    ? ? ? ?使用上面的雙向匹配網(wǎng)絡(luò),我們把 N × M N\times M N×M個(gè)短句匹配單元中的每一個(gè)單元作為輸入,都可以輸出一個(gè)匹配向量,所有現(xiàn)在我們就得到了 N × M N\times M N×M個(gè) 2 d ′ 2d' 2d維的向量,我們把它們拼成一個(gè)向量,然后做一個(gè)簡(jiǎn)單的句子級(jí)別的self-Attention,得到最終的的表示,最終再經(jīng)過一個(gè)輸出層即可, p p p就是最終分類的輸出結(jié)果(四分類),如下所示:
    V = [ V [ 1 , 1 ] , V [ 1 , 2 ] , … , V [ i , j ] , … , V [ N , M ] ] U = tanh ? ( W h ? V ) α = softmax ? ( w h ? ? U ) R = V ? α p = s o f t m a x ( W l ? R + B l ) \begin{array}{c}{V=\left[V_{[1,1]}, V_{[1,2]}, \ldots, V_{[i, j]}, \ldots, V_{[N, M]}\right]} \\ {U=\tanh \left(W_{h} \cdot V\right)} \\ {\alpha=\operatorname{softmax}\left(w_{h}^{\top} \cdot U\right)}\end{array} \\ R=V\cdot \alpha \\p=softmax(W_l\cdot R+B_l) V=[V[1,1]?,V[1,2]?,,V[i,j]?,,V[N,M]?]U=tanh(Wh??V)α=softmax(wh???U)?R=V?αp=softmax(Wl??R+Bl?)

    (4)關(guān)于作者分析的標(biāo)注數(shù)據(jù)集:

    數(shù)據(jù)來源:淘寶的“問大家”,主要包括美妝、鞋和電子產(chǎn)品這三個(gè)領(lǐng)域,每個(gè)領(lǐng)域收集了10000條問答對(duì)。
    標(biāo)注說明:對(duì)于情感分類的標(biāo)注結(jié)果有四類,分別是positive, negative, neutral,conflict。其中conflict代表這個(gè)問答對(duì)中既包含對(duì)整體評(píng)價(jià)對(duì)象的積極情感,又包含消極情感。比如:“Q:這個(gè)手機(jī)好用嗎? A:手機(jī)使用起來手感很好,非常流暢。但是電池不太好,一會(huì)兒就沒電了!”。這個(gè)Q-A就會(huì)被標(biāo)注為“conflict”。
    而neutral并不一定是中立的,按照作者描述的規(guī)則,以下這些情況都會(huì)被標(biāo)注為“neutral”:

  • 答非所問。比如“Q:屏幕清楚嗎? A:電池壽命很長(zhǎng)!”
  • 不確定的回答,“我不知道”這種回答。比如“Q:這款手機(jī)怎么樣? A:不知道,買來送人的”
  • 不包含感情的客觀事實(shí)。比如“Q:手機(jī)什么顏色? A:藍(lán)色”
  • 對(duì)比兩個(gè)或多個(gè)產(chǎn)品的問答。比如“Q:這款手機(jī)和iPhone6相比怎么樣? A:那決定于你,它們是不可比較的”
  • 總結(jié)

    以上是生活随笔為你收集整理的Sentiment Classification towards Question-Answering with Hierarchical Matching Network 论文阅读笔记的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。