日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > ChatGpt >内容正文

ChatGpt

读论文:SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers

發布時間:2023/12/14 ChatGpt 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 读论文:SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers

  • 鏈接
      • 論文原文:
      • 源代碼等全部信息:
  • 今天先看摘要吧
  • 摘要小結
    • 可解釋性
    • 自解釋模型

?

鏈接

論文原文:

SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers

源代碼等全部信息:

aclanthology地址鏈接

今天先看摘要吧

Abstract

We introduce SELFEXPLAIN, a novel selfexplaining model that explains a text classifier’s predictions using phrase-based concepts.

self explain,一種新型的自解釋模型。解釋了啥呢,哦是一種基于短語概念的文章分類器的預測過程。

SELFEXPLAIN augments existing neural classifiers by adding (1) a globally interpretable layer that identifies the most influential concepts in the training set for a given sample
and (2) a locally interpretable layer that quantifies the contribution of each local input concept by computing a relevance score relative to the predicted label.

上來就:增強了現有的神經元分類器,通過加了兩個層:
(這里先把interpretable認為是可解釋的吧,后面發現不對再改)

  • 一個全局可解釋的層:識別出最有影響力的短語概念(從給定樣本的訓練集里面)
  • 一個局部可解釋的層:量化每一個局部的輸入的概念(對于預測結果的)貢獻,通過計算它們和預測結果的相關度得分
  • 到現在涉及到層咋連的,長啥樣,還有這個相關度是咋計算的。

    Experiments across five text-classification datasets show that SELFEXPLAIN facilitates interpretability without sacrificing performance.
    Most importantly, explanations from SELFEXPLAIN show sufficiency for model predictions and are perceived as adequate, trustworthy and understandable by human judges compared to existing widely-used baselines.1

    對五個文本分類數據集的實驗表明,SELFEXPLAIN在不犧牲性能的情況下促進了可解釋性
    最重要的是,來自SELFEXPLAIN的解釋顯示了模型預測的充分性,
    并且與現有的廣泛使用的準則相比,人類法官認為是充分的,可信的和可理解的。

    摘要小結

    看到這里,大概知道是一個什么任務了:提高分類器的可解釋性,和自解釋模型有關系
    于是呢,去簡單補充了一下相關概念:

    事后解釋VS自解釋

    可解釋性

    近年來,深度神經網絡正在計算機視覺、自然語言處理和語音識別等多種領域發揮著重要作用,推動了人工智能的發展。但是,深度神經網絡仍存在一些局限性,例如這些模型的決策過程通常無法向用戶解釋。
    但同時,在醫療、金融、法律等各個領域,了解人工智能系統決策制定背后的原因至關重要。因此,研究人員已經探索出了解釋神經模型的一些方向。

    簡單來說,神經網絡深度學習具有不可解釋的特點,但是倫理問題需要它做出解釋。需要知道我們預測的結果為什么,過程可不可靠。于是就有了模型可解釋性的這樣一個研究內容。

    自解釋模型

    事后解釋是旨在解釋已經訓練和固定的目標模型的獨立方法
    例如 LIME(Ribeiro 等人于 2016 年提出)就是一種事后解釋方法,它通過在模型預測的鄰域上學習可解釋的模型(如線性回歸)來解釋目標模型的預測。如前文所述,這種解釋方法針對的是文本 token 和圖像超像素,即所謂的基于特征。

    事后: (反正是全都訓練完了,然后試圖從結果解釋)

    自解釋模型是目標模型
    這些模型將解釋生成模塊集成到自身架構中,以便它們為自己的預測提供解釋。從較高的層面而言,自解釋模型具有兩個相互關聯的模塊:預測器模塊,即模型中專門用于預測手頭任務的部分;解釋生成器模塊,作為模型的一部分,它為預測器所做的預測提供解釋。
    此外,自解釋模型不是必須對解釋做出監督

    自解釋:模型的一部分,在模型訓練和預測中間,信息路過解釋器模塊,顯示一些信息。

    總結

    以上是生活随笔為你收集整理的读论文:SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。