日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【Paper】Learning to Predict Charges for Criminal Cases with Legal Basis

發布時間:2025/3/19 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【Paper】Learning to Predict Charges for Criminal Cases with Legal Basis 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

  • Abstract
  • 1 Introduction
  • 2 相關工作
  • 3 Data Preparation
  • 4 Our Approach
    • 4.1 Document Encoder
    • 4.2 Using Law Articles(多輸出)
    • 4.3 The Output
  • 5 Experiments
    • 5.1 Experimental Setup
    • Experiments

Abstract

  • charge prediction task:對于一個給定案件確定合適的罪名(charges),這對那些由用戶輸入事實描述的法律輔助系統很有幫助。
  • 因為相關法律條款(law articles)在該任務中扮演一個很重要的角色,因此,提出一個基于注意力(attention)的神經網絡方法,該方法對charge prediction任務和article extraction(相關條款提取)任務用一個統一的框架進行聯合建模。
  • 實驗結果表明,相關articles(條款)除了提供法律依據外,還可以明顯改善 charge prediction 結果,完整模型可以有效預測不同表達風格案件的適當charge(罪名)

1 Introduction

automatic charge prediction任務:通過分析案件的文本事實描述來確定合適的罪名(charges),例如:欺詐罪、盜竊罪或故意殺人罪。這些技術對于法律輔助系統至關重要,用戶可以通過用自己的語言描述案件來發現類似的案例或可能的penalties。這有助于非法律專業人員了解其相關案例的legal basis(法律依據),例如:他們或他們的朋友所涉及的案件,因為大量的法律材料和缺乏法律術語的知識,使外行人很難自己完成。

難點

  • (1) 兩個不同charges之間的差異可能很微妙,例如:在中國刑事案件的背景下,要將“故意殺人”和“故意傷害”區分開來,需要從事實描述中確定被告是打算殺害被害人,還是僅僅意圖傷害受害人,而受害人不幸死于嚴重傷害。
  • (2) 一個案件中可能涉及多個犯罪,這就意味著我們需要在multi-label分類范式中進行charge prediction(罪名預測)
  • (3) 盡管我們可以期望現成的分類模型通過海量訓練數據,學會用相應的charges來標記案例,但是將案件涉及的law articles(法律條款)呈獻給用戶則是更有說服力的預測,這作為支持預測的法律依據。這個問題在使用the civil law system(大陸法系)的國家至關重要,例如:中國(香港除外)只根據法律作出判決。例如,我國的判決書一般包含相關法律條款(在法院認為部分)來支持判決。即使在使用the common law system的國家,例如:美國(路易斯安那州除外),其判決主要基于以前案件的決定,在作出決定時仍需要遵循一些法律。

現有的嘗試將自動charge prediction任務作為單標簽分類任務,要么采用KNN分類器(Liu et al., 2004; Liu and Hsieh, 2006)作用于shallow textual features上,或者為具體的charges手動設計特征,以幫助文本理解(Lin et al., 2012),這使得這些works很難擴展到更多的charge類型。

相關任務:查找特定案件所涉及的法律條款。

  • 簡單解決方案:通過使用一個固定的法律條款集合,將多標簽問題轉化為多分類問題(Liu and Liao, 2005; Liu and Hsieh, 2006),該方法只能應用于少量的法律條款集合,不適合實際應用。
  • 改進方法:采用兩步法,首先執行初步分類,然后使用word-level(字級)和article-level features(文章級特征)對結果re-ranking(重新排序)(Liu et al., 2015)。
  • 小結:這些努力推動機器學習和自然語言處理方法在 legal assistance services中的應用,但發展仍處于早期階段。例如:依靠專業知識,使用相對簡單的分類范式和淺層文本分析。更重要的是,charge prediction 和 relevant article extraction 等相關任務被獨立對待,而忽視了它們可以彼此受益的事實。

神經網絡的最新進展使我們能夠在統一的框架中對 charge prediction 和 relevant article extraction 共同建模,其中從案例事實描述到相關法律條款以及進一步收費的潛在對應關系可以由 two-stack 注意機制 顯式解決。具體來講,我們使用 一個sentence-level 和 一個document-level Bi-directional Gated Recurrent Units (Bi-GRU),并使用一系列factside attention組件來建模單詞和句子之間的相關性
,從而捕捉整個story以及案件的重要細節。給定fact描述的分析,我們學習了很多article-side attention components,以從制定法( statutory laws)中專心選擇最支持law articles,以支持我們的charge prediction,這在multi-label paradigm中進行了研究。

實驗評估

  • 數據集:我們在預測中國 criminal cases 的 predicting charges 相關數據上評估我們的模型。該數據集是從中國政府網站上利用簡單的規則自動提取 fact descriptions, relevant law articles and the charges,如圖1所示。
  • 定性分析,本方法可有效對給定案件預測合理的charges,并提供相關支撐的law articles。
  • 定量分析(quantitive analysis):對 charge predicion 中fact-side和article-side信息影響的量化分析,表明除了提供法律依據外,相關law articles還包含有助于大陸法系提升charge prediction。
  • 泛化性:該模型還可對criminal cases的新聞報道進行預測

2 相關工作

charge prediction task:基于案件事實預測合理的罪名(charges)。

  • 之前工作將其當作多分類任務,將fact description作為輸入,輸出一個charge標簽。
    • (Liu et al.,2004; Liu and Hsieh, 2006)使用KNN分別分類12和6項犯罪罪名(臺灣)。然而,除了 KNN 方法的可伸縮性較差,word-level 和 phrase-level 的淺層特征不能捕獲足夠的evidence來區分具有細微差異的類似charges。
    • (Lin et al., 2012) 提出來通過對于2個charges手動設計辨別具體charge因素來更深入地了解案例。該方法遭受可測量性的問題,原因:對于每對charges都需要人力來設計和標。
  • 本方法:使用Bi-GRU和一個two-stack注意機制來綜合理解一個案件,而不依賴顯式人工注釋。

在大陸法系內,some works關注確定特定案例的適用law articles

  • (Liu and Liao, 2005; Liu and Hsieh, 2006) 僅只考慮一組固定的law articles組合,將multi-label問題轉換為一個multi-class分類問題,由于考慮到更多的law articles時可能的組合數量將呈指數增長,因此無法很好地擴展。
  • (Liu et al., 2015)設計一個可擴展的two-step方法,方法是首先使用SVM進行初步的law articles分類,然后使用詞級features和文章之間的co-occurence tendency(共現趨勢)對結果進行re-ranking。
  • 本方法:使用SVM提取 top-k 候選 articles,但是進一步采用 Bi-GRU 和 article-side 注意力來更好地理解texts并探索articles之間的相關性。更重要的是,使用我們的charge prediction框架來優化articles提取任務,這不僅為了解事實提供了另一種觀點,而且為支持最終決定提供了legal basis(法律依據)。

另一個相關工作思路是預測案件的總體結果。目標可以是which party will the outcome side with(???)(Aletras et al.,2016),也可以是本法院是肯定還是推翻下級法院的決定((Katz et al., 2016)。我們的工作與它們不同之處在于,除了二分類結果之外,我們進一步關注于案件的詳細結果,即the charges,其中輸出可能包含多個標簽。

我們也與 法律問答任務(legal question answering task) 具有相似的精神,其目標是回答日本法律律師考試中的是/否問題,我們都認為相關的law articles對于大陸法系中的決定至關重要。不同于我們,這項任務需要參與者首先提取相關Japanese Civil Code articles (日本民法典條款),然后使用它們來回答yes/no的問題。前一階段通常被視為信息檢索任務,后一階段被視為a textual entailment 任務。

在 AI 和 law 領域,也有工作試圖類案推送(Raghav et al., 2016; Chen et al., 2013),這在普通的法律體系中的決策至關重要。我們的工作不是尋找相關案例,而是側重于預測具體的charges,我們還強調law articles在決策中的重要性,這在大陸法系中非常重要,因為大陸法系的決定完全基于成文法(statutory laws)。

我們的工作還與document classification(文檔分類)任務有關,主要區別在于我們需要自動識別適用的law articles以支持和改進charge預測。近來,各種神經網絡結構,例如CNN、RNN被用于document embedding來進一步分類。

  • (Tang et al., 2015) 提出一個two-layer方法,用CNN或RNN來sentence embedding,而其他的RNN用于document embedding。
  • (Yang et al., 2016)進一步使用global context vectors在embedding過程中專注地將信息性單詞或句子與非信息性單詞或句子區分開來,本方法具有相似的思想。
  • 但是,我們采用了更靈活和更具描述性的two-stack attention mechanism,一個stack用于fact embedding,另一個stack用于article embedding,該stack根據fact-side的線索為每個實例動態生成,作為額外的指導。另一個區別是我們任務的multi-label性質,而不是優化多個二分類任務(Nam et al., 2014),我們在訓練中將multi-label目標轉化為label distribution(標簽分布),使用交叉熵作為loss函數,并使用針對驗證集調整的閾值來產生最終預測,該預測在我們的試驗性實驗中表現更好。

3 Data Preparation

數據集

  • 來源:China Judgements Online(since 2013),中國政府發布判決文書。
  • 過程
    • 隨機選取50,000個文檔用于訓練,5,000用于驗證 和 5,000 用于測試。
    • 為了保證每個charge都有足夠的訓練數據,僅使用charges頻數大于80的訓練數據,并把其他的charges作為negative data。
    • 對于law articles,使用《中華人民共和國刑法》中的規定。
  • 數據集:包含50個不同的charges,321個不同的law articles,每個事實描述平均383個words,每個案例3.81個law articles,3.56%的案例有多個charges。

數據樣本

  • 過程
    • 判決文書如圖1所示,并將一個document分為三部分,并分別提取fact description, articles, and charges。
    • 使用人工收集的 charge list 來識別所有charges,law articles是通過正則表達式提取的。提取的charges and articles被設為相應的事實描述的ground truth。
    • 罕見情況:我們掩蓋在事實描述中出現的所有的charges。

小結

  • 難點:匹配不同的被告相關的fact和對應的charges。簡化為只考慮:只有一個被告的案件。
  • 雖然這種簡化可能改變真實的charge分布,但是這使得我們可以在不依賴法律從業人員的標注的情況下,自動構建大規模高質量的數據集。

4 Our Approach


本方法如圖2所示,包括如下步驟

  • 輸入 fact description 給 document encoder 生成 fact embedding df\mathbfozvdkddzhkzd_fdf?,其中 ufw\mathbf{u}_{fw}ufw?ufs\mathbf{u}_{fs}ufs?是global word-level and sentence-level context vectors,用于選擇有豐富信息的words and sentences;
  • 與此同時,fact description 通過 article extractor 來找到 top kkk 個相關的 law articles
  • 這些 law articles 通過另一個 document encoder 進行 embedded(嵌入),之后傳遞給 article aggregator 選擇具有支持性的 law articles 并生成集聚的 article embedding da\mathbfozvdkddzhkzd_ada?。具體來說,從 df\mathbfozvdkddzhkzd_fdf? 動態生成的三個context vectors,即uaw,uas\mathbf{u}_{aw}, \mathbf{u}_{as}uaw?,uas? and uad\mathbf{u}_{ad}uad?,用于在article document encoder 和 the article aggregator中產生attention values。
  • 最后,串聯 df\mathbfozvdkddzhkzd_{f}df?da\mathbfozvdkddzhkzd_{a}da?并通過一個softmax分類器來預測輸入案件的charge分布。
  • 4.1 Document Encoder

    document embedding problem可轉化為兩個序列embedding問題(詞 =》句 =》文檔)。

    如圖3所示,步驟:

    • 使用sentence-level sequence encoder對每個句子進行emded;
    • 使用document-level sequence encoder對上步驟嵌入的向量進行聚合來生成 document embedding d\mathbfozvdkddzhkzdd
    • 注意:上述兩 encoders 可使用不同結構,但本文為了簡便使用相同結構。

    Bi-GRU Sequence Encoder

    • 背景:構建 sequence encoder 的一個挑戰是如何考慮不同元素之間的相關性。一個典型方法是Bi-GRU;
    • 基本思想:使用門機制(gating mechanism)編碼每個元素的上下文,來蹤sequence的狀態。具體來說,Bi-GRU首先使用一個前向和一個反向GRU用兩個相反的方向來編碼sequence,之后連接兩個GRU的狀態以形成自己的狀態。
    • 具體過程:給定序列 [x1,x2,...,xT][\mathbf{x}_1,\mathbf{x}_2,...,\mathbf{x}_T][x1?,x2?,...,xT?],其中 xt\mathbf{x}_txt? 是輸入元素 ttt 的embedding,Bi-GRU在位置 ttt 的狀態為
      ht=[hft,hbt](1)\mathbf{h}_t=[\mathbf{h}_{ft},\mathbf{h}_{bt}]\tag{1}ht?=[hft?,hbt?](1)
      其中 hft和?hbt\mathbf{h}_{ft} \text{ 和 }\mathbf{h}_{bt}hft???hbt? 是forward和nackward GRU在位置 ttt 上的狀態。The final sequence embedding 不是串聯 hft和?hbt\mathbf{h}_{ft} \text{ 和 }\mathbf{h}_{bt}hft???hbt? 就是使用 ht\mathbf{h}_{t}ht? 的均值。

    Attentive Sequence Encoder

    • 背景:當序列較長時,直接使用 [hft,hbt][\mathbf{h}_{ft},\mathbf{h}_{bt}][hft?,hbt?] 來編碼序列通常無法捕獲所有信息,而使用 ht\mathbf{h}_{t}ht? 的均值也具有將useless elements(無用元素)與informative(有用信息豐富)的元素相同對待的缺點。
    • 方法:受(Yang et al., 2016)啟發,使用一個 context vector(上下文向量)來attentively聚合元素,但是當使用extra guidance時,我們允許動態生成context vector,而不是使用global context vector(見4.2)。
    • 具體過程:如圖4所示,給定Bi-GRU狀態序列 [h1,h2,...,hT][\mathbf{h}_{1},\mathbf{h}_{2},...,\mathbf{h}_{T}][h1?,h2?,...,hT?],attentive sequence encoder 計算attention值序列[α1,α2,...,αT][\alpha_1,\alpha_2,...,\alpha_T][α1?,α2?,...,αT?],其中αt∈[0,1]and?∑tαt=1\alpha_t \in{[0,1]} \text{ and } \sum_t{\alpha_t}=1αt?[0,1]?and?t?αt?=1。final sequence embedding g\mathbf{g}g 計算如下:
      g=∑t=1Tαthtαt=exp(tanh(Wht)Tu)∑texp(tanh(Wht)Tu)(2)\mathbf{g}=\sum_{t=1}^{T}{\alpha_{t}\mathbf{h}_t}\\ \alpha_{t}=\frac{exp(tanh(\mathbf{W}\mathbf{h}_t)^T\mathbf{u})}{\sum_t{exp(tanh(\mathbf{W}\mathbf{h}_t)^T\mathbf{u})}}\tag{2}g=t=1T?αt?ht?αt?=t?exp(tanh(Wht?)Tu)exp(tanh(Wht?)Tu)?(2)
      其中,W\mathbf{W}W是一個權重矩陣,u\mathbf{u}u是context vector,用于區分informative elements 和 non-informative ones。
    • 通過使用該序列編碼器進行fact embedding,fact-side attention模塊實際上包含兩個組件,即單詞級別和句子級別,分別使用 ufw\mathbf{u}_{fw}ufw?ufs\mathbf{u}_{fs}ufs? 作為它們的global context vectors。

    4.2 Using Law Articles(多輸出)

    • 挑戰:成文法包含大量articles,這使得將復雜的模型直接應用于這些articles非常耗時,因此難以擴展。
    • 方法:一個two-step方法,具體來講,首先構建一個快速易擴展的分類器來過濾掉很大一部分不相關的articles并保留 top kkk articles;之后,使用神經網絡來全面理解 top kkk articles,進一步使用 article-side attention 模塊來選擇最支持charge prediction的articles。

    Top kkk Article Extractor

    • 方法:將相關articles提取視為多個二分類問題。具體來講,對每個article構建一個二分類器,重點關注與輸入案件的相關性,共構建321個二分類器,擴展只需添加更多的二分類器即可。
    • 具體方法:用 word-based SVM 作為二分類器,該分類器速度快且在文本分類中表現良好。具體來講,使用bag-ofwords TF-IDF作為特征,使用chi-square(卡方)作為特征選擇,使用線性核用于二分類器。

    Article Encoder

    • 方法:每個 law article 可能包含多個句子,所以對于提取的top k articles使用4.1所示的 document encoder 來生成 embedding aj,j∈[1,k]\mathbf{a}_j,j\in{[1,k]}aj?,j[1,k]。在使用類似的體系結構時,article encoder 與fact encoder 不同,它不是使用global context向量,而是根據其對應的 fact embedding df\mathbfozvdkddzhkzd_fdf? 為每個案件動態生成其word-level text vector uaw\mathbf{u}_{aw}uaw?和 sentence-level context vector uas\mathbf{u}_{as}uas?
      uaw=Wwdf+bw;uas=Wsdf+bs(3)\mathbf{u}_{aw}=\mathbf{W}_w\mathbfozvdkddzhkzd_f+\mathbf_w;\ \ \ \ \ \mathbf{u}_{as}=\mathbf{W}_s\mathbfozvdkddzhkzd_f+\mathbf_s\tag{3}uaw?=Ww?df?+bw?;?????uas?=Ws?df?+bs?(3)
      其中,W?\mathbf{W}_*W??為權重矩陣,b?\mathbf_*b??為偏置。
    • 作用:context vectors,uaw\mathbf{u}_{aw}uaw?uas\mathbf{u}_{as}uas? 分別用于生成 word-level and sentence-level attention 值。通過動態context vectors,fact embedding df\mathbfozvdkddzhkzd_{f}df? 實際上指導我們的模型針對每個案件的事實關注信息量大的單詞或句子,而不僅僅是選擇一般性的信息量大的單詞或句子。

    Attentive Article Aggregator

    • 目標:從提取的 top kkk articles中找到用于charge prediction的支持性articles,并相應地生成 aggregated article embedding。
    • 現狀:top k extracted articles的順序并非十分可信==》使用雙向 RNN 來 embed 每個元素的 context 仍然是有益的,即使在順序不存在的集中也是如此。==》有利于利用相關articles的co-occurrence tendency(共現趨勢)
    • 具體方法:使用4.1中的attentive sequence encoder來生成aggregated article embedding da\mathbfozvdkddzhkzd_ada?。再次,為了用事實描述引導attention,我們動態地生成article-level context vector uad\mathbf{u}_{ad}uad?:
      uad=Wddf+bd(4)\mathbf{u}_{ad}=\mathbf{W}_ozvdkddzhkzd\mathbfozvdkddzhkzd_{f}+\mathbf_ozvdkddzhkzd\tag{4}uad?=Wd?df?+bd?(4)
    • 小結:the attentive sequence encoder產生的attention values可以看作是每個article與輸入case的相關性,可以用來對 top k articles 進行排名和過濾。結果可以顯示給用戶作為charge prediction的法律依據

    4.3 The Output

    為了最后的charge prediction,首先串聯 document embedding df\mathbfozvdkddzhkzd_fdf? 和 aggregated article embedding da\mathbfozvdkddzhkzd_ada?,之后輸入到兩個 FC 層生成 vector d′\mathbf{d'}d,之后通過一個softmax分類器生成預測的charge分布。我們使用驗證集(validation set)確定閾值 τ\tauτ,將所有輸出概率大于 τ\tauτ 的charges視為positive預測。FC的輸入只有df\mathbfozvdkddzhkzd_fdf?da\mathbfozvdkddzhkzd_ada?,這意味著我們僅使用fact或articles進行預測。

    損失函數:交叉熵
    Loss=?∑i=1N∑l=1Lyillog?oil(5)Loss=-\sum_{i=1}^{N}\sum_{l=1}^{L}{y_{il}\log{o_{il}}}\tag{5}Loss=?i=1N?l=1L?yil?logoil?(5)
    其中 NNN 表示訓練數據的數量,LLL 表示charges的數量,yily_{il}yil?oilo_{il}oil?表示案件 iii 對于charge lll 的 target 和 預測概率。charge target分布yil\mathbf{y}_{il}yil?是通過將positive labels設置為 1mi\frac{1}{m_i}mi?1?、negative設置為0完成的,其中 mim_imi? 是案件 iii positive 標簽的數量。

    Supervised Article Attention

    • 基本思想:利用在判決文書中自然地使用gold-standard law articles來監督訓練期間的article attention。
    • 具體來講,給定 top kkk articles,我們希望 article attention distribution α∈Rk\mathbf{\alpha}\in{\mathbb{R}^k}αRk 模擬 target article distribution t∈Rk\mathbf{t}\in{\mathbb{R}^k}tRk,若article jjj 是gold-standard articles 那么 tj=1k′t_j=\frac{1}{k'}tj?=k1? 否則 tj=0t_j=0tj?=0。其中,k′k'k 是top kkk articles中 gold-standard articles 的數量。之后,再次使用cross entropy loss function:
      Loss=?∑i=1N(∑l=1Lyillog?(oil)+β∑j=1ktijlog?(αij))(6)Loss=-\sum_{i=1}^{N}(\sum_{l=1}^{L}{y_{il}\log{(o_{il})}}+\beta\sum_{j=1}^{k}{t_{ij}\log{(\alpha_{ij})}})\tag{6}Loss=?i=1N?(l=1L?yil?log(oil?)+βj=1k?tij?log(αij?))(6)
      其中,β\betaβ是article attention損失的權重。

    5 Experiments

    5.1 Experimental Setup

    • HanLP:中文分詞、詞性標注(POS tagging)
    • Word embeddings:使用word2vec在判決文件、多個法律論壇和百度百科的網頁上訓練。詞嵌包含573,353 words、100dimension。
    • the final input:對于每個POS tag初始化50-d向量并串聯word embedding。
    • 超參數設置:Bi-GRU中每個GRU大小為75,兩個FC層大小為200、150。article extractor 生成 top 20 articles,公式6中β=0.1\beta=0.1β=0.1,閾值 τ=0.4\tau=0.4τ=0.4,訓練使用SGD,學習率為0.1,batch-size=8。

    模型變形(2種):不帶article attention supervision 和 只使用facts進行charge prediction。

    • 后者類似于state-of-art文本分類(Yang et al., 2016),但適應了我們問題的多標簽性質。

    評價指標:precision, recall and F1,包括micro-level和macro-level

    • 背景:charge分布不平衡,top 5 charges占據超過60%的案件。
    • macro-precision/recall:每個charge的precision/recall平均值
    • micro-precision/recall :averaged over each prediction

    Experiments

    Charge Prediction Results


    Article Extraction Results

    Performance on News Data

    總結

    以上是生活随笔為你收集整理的【Paper】Learning to Predict Charges for Criminal Cases with Legal Basis的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。