读论文:SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
- 鏈接
- 論文原文:
- 源代碼等全部信息:
- 今天先看摘要吧
- 摘要小結(jié)
- 可解釋性
- 自解釋模型
?
鏈接
論文原文:
SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
源代碼等全部信息:
aclanthology地址鏈接
今天先看摘要吧
Abstract
We introduce SELFEXPLAIN, a novel selfexplaining model that explains a text classifier’s predictions using phrase-based concepts.
self explain,一種新型的自解釋模型。解釋了啥呢,哦是一種基于短語(yǔ)概念的文章分類(lèi)器的預(yù)測(cè)過(guò)程。
SELFEXPLAIN augments existing neural classifiers by adding (1) a globally interpretable layer that identifies the most influential concepts in the training set for a given sample
and (2) a locally interpretable layer that quantifies the contribution of each local input concept by computing a relevance score relative to the predicted label.
上來(lái)就:增強(qiáng)了現(xiàn)有的神經(jīng)元分類(lèi)器,通過(guò)加了兩個(gè)層:
(這里先把interpretable認(rèn)為是可解釋的吧,后面發(fā)現(xiàn)不對(duì)再改)
到現(xiàn)在涉及到層咋連的,長(zhǎng)啥樣,還有這個(gè)相關(guān)度是咋計(jì)算的。
Experiments across five text-classification datasets show that SELFEXPLAIN facilitates interpretability without sacrificing performance.
Most importantly, explanations from SELFEXPLAIN show sufficiency for model predictions and are perceived as adequate, trustworthy and understandable by human judges compared to existing widely-used baselines.1
對(duì)五個(gè)文本分類(lèi)數(shù)據(jù)集的實(shí)驗(yàn)表明,SELFEXPLAIN在不犧牲性能的情況下促進(jìn)了可解釋性。
最重要的是,來(lái)自SELFEXPLAIN的解釋顯示了模型預(yù)測(cè)的充分性,
并且與現(xiàn)有的廣泛使用的準(zhǔn)則相比,人類(lèi)法官認(rèn)為是充分的,可信的和可理解的。
摘要小結(jié)
看到這里,大概知道是一個(gè)什么任務(wù)了:提高分類(lèi)器的可解釋性,和自解釋模型有關(guān)系
于是呢,去簡(jiǎn)單補(bǔ)充了一下相關(guān)概念:
事后解釋VS自解釋
可解釋性
近年來(lái),深度神經(jīng)網(wǎng)絡(luò)正在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理和語(yǔ)音識(shí)別等多種領(lǐng)域發(fā)揮著重要作用,推動(dòng)了人工智能的發(fā)展。但是,深度神經(jīng)網(wǎng)絡(luò)仍存在一些局限性,例如這些模型的決策過(guò)程通常無(wú)法向用戶(hù)解釋。
但同時(shí),在醫(yī)療、金融、法律等各個(gè)領(lǐng)域,了解人工智能系統(tǒng)決策制定背后的原因至關(guān)重要。因此,研究人員已經(jīng)探索出了解釋神經(jīng)模型的一些方向。
簡(jiǎn)單來(lái)說(shuō),神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)具有不可解釋的特點(diǎn),但是倫理問(wèn)題需要它做出解釋。需要知道我們預(yù)測(cè)的結(jié)果為什么,過(guò)程可不可靠。于是就有了模型可解釋性的這樣一個(gè)研究?jī)?nèi)容。
自解釋模型
事后解釋是旨在解釋已經(jīng)訓(xùn)練和固定的目標(biāo)模型的獨(dú)立方法。
例如 LIME(Ribeiro 等人于 2016 年提出)就是一種事后解釋方法,它通過(guò)在模型預(yù)測(cè)的鄰域上學(xué)習(xí)可解釋的模型(如線性回歸)來(lái)解釋目標(biāo)模型的預(yù)測(cè)。如前文所述,這種解釋方法針對(duì)的是文本 token 和圖像超像素,即所謂的基于特征。
事后: (反正是全都訓(xùn)練完了,然后試圖從結(jié)果解釋)
自解釋模型是目標(biāo)模型,
這些模型將解釋生成模塊集成到自身架構(gòu)中,以便它們?yōu)樽约旱念A(yù)測(cè)提供解釋。從較高的層面而言,自解釋模型具有兩個(gè)相互關(guān)聯(lián)的模塊:預(yù)測(cè)器模塊,即模型中專(zhuān)門(mén)用于預(yù)測(cè)手頭任務(wù)的部分;解釋生成器模塊,作為模型的一部分,它為預(yù)測(cè)器所做的預(yù)測(cè)提供解釋。
此外,自解釋模型不是必須對(duì)解釋做出監(jiān)督。
自解釋:模型的一部分,在模型訓(xùn)練和預(yù)測(cè)中間,信息路過(guò)解釋器模塊,顯示一些信息。
總結(jié)
以上是生活随笔為你收集整理的读论文:SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: git restore指令和git re
- 下一篇: EXPLAINING AND HARNE