读论文:SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
- 鏈接
- 論文原文:
- 源代碼等全部信息:
- 今天先看摘要吧
- 摘要小結
- 可解釋性
- 自解釋模型
?
鏈接
論文原文:
SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
源代碼等全部信息:
aclanthology地址鏈接
今天先看摘要吧
Abstract
We introduce SELFEXPLAIN, a novel selfexplaining model that explains a text classifier’s predictions using phrase-based concepts.
self explain,一種新型的自解釋模型。解釋了啥呢,哦是一種基于短語概念的文章分類器的預測過程。
SELFEXPLAIN augments existing neural classifiers by adding (1) a globally interpretable layer that identifies the most influential concepts in the training set for a given sample
and (2) a locally interpretable layer that quantifies the contribution of each local input concept by computing a relevance score relative to the predicted label.
上來就:增強了現有的神經元分類器,通過加了兩個層:
(這里先把interpretable認為是可解釋的吧,后面發現不對再改)
到現在涉及到層咋連的,長啥樣,還有這個相關度是咋計算的。
Experiments across five text-classification datasets show that SELFEXPLAIN facilitates interpretability without sacrificing performance.
Most importantly, explanations from SELFEXPLAIN show sufficiency for model predictions and are perceived as adequate, trustworthy and understandable by human judges compared to existing widely-used baselines.1
對五個文本分類數據集的實驗表明,SELFEXPLAIN在不犧牲性能的情況下促進了可解釋性。
最重要的是,來自SELFEXPLAIN的解釋顯示了模型預測的充分性,
并且與現有的廣泛使用的準則相比,人類法官認為是充分的,可信的和可理解的。
摘要小結
看到這里,大概知道是一個什么任務了:提高分類器的可解釋性,和自解釋模型有關系
于是呢,去簡單補充了一下相關概念:
事后解釋VS自解釋
可解釋性
近年來,深度神經網絡正在計算機視覺、自然語言處理和語音識別等多種領域發揮著重要作用,推動了人工智能的發展。但是,深度神經網絡仍存在一些局限性,例如這些模型的決策過程通常無法向用戶解釋。
但同時,在醫療、金融、法律等各個領域,了解人工智能系統決策制定背后的原因至關重要。因此,研究人員已經探索出了解釋神經模型的一些方向。
簡單來說,神經網絡深度學習具有不可解釋的特點,但是倫理問題需要它做出解釋。需要知道我們預測的結果為什么,過程可不可靠。于是就有了模型可解釋性的這樣一個研究內容。
自解釋模型
事后解釋是旨在解釋已經訓練和固定的目標模型的獨立方法。
例如 LIME(Ribeiro 等人于 2016 年提出)就是一種事后解釋方法,它通過在模型預測的鄰域上學習可解釋的模型(如線性回歸)來解釋目標模型的預測。如前文所述,這種解釋方法針對的是文本 token 和圖像超像素,即所謂的基于特征。
事后: (反正是全都訓練完了,然后試圖從結果解釋)
自解釋模型是目標模型,
這些模型將解釋生成模塊集成到自身架構中,以便它們為自己的預測提供解釋。從較高的層面而言,自解釋模型具有兩個相互關聯的模塊:預測器模塊,即模型中專門用于預測手頭任務的部分;解釋生成器模塊,作為模型的一部分,它為預測器所做的預測提供解釋。
此外,自解釋模型不是必須對解釋做出監督。
自解釋:模型的一部分,在模型訓練和預測中間,信息路過解釋器模塊,顯示一些信息。
總結
以上是生活随笔為你收集整理的读论文:SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: git restore指令和git re
- 下一篇: EXPLAINING AND HARNE