日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【完结】 12篇文章带你完全进入NLP领域,掌握核心技术

發布時間:2025/3/20 编程问答 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【完结】 12篇文章带你完全进入NLP领域,掌握核心技术 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

專欄《NLP》第一階段正式完結了。在本專欄中,我們從NLP中常用的機器學習算法開始,介紹了NLP中常用的算法和模型;從樸素貝葉斯講到XLnet,特征抽取器從RNN講到transformerXL。這篇文章我們就一起回顧一下這些文章。

作者&編輯 | 小Dream哥

1 樸素貝葉斯

貝葉斯分類器在早期的自然語言處理任務中有著較多實際的應用,例如大部分的垃圾郵件處理都是用的貝葉斯分類器。

貝葉斯決策論是在統計概率框架下進行分類決策的基本方法。對于分類任務來說,在所有相關概率都已知的情況下,貝葉斯決策論考慮如何基于這些概率和誤判損失來預測分類。

【NLP】經典分類模型樸素貝葉斯解讀

2?隱馬爾科夫模型(HMM)

HMM早期在語音識別、分詞等序列標注問題中有著廣泛的應用。

HMM是非常適合用于序列標注問題的。HMM模型引入了馬爾科夫假設,即T時刻的狀態僅僅與前一時刻的狀態相關。

【NLP】用于語音識別、分詞的隱馬爾科夫模型HMM

3 條件隨機場(CRF)

隱馬爾科夫模型引入了馬爾科夫假設,即當前時刻的狀態只與其前一時刻的狀態有關。但是,在序列標注任務中,當前時刻的狀態,應該同該時刻的前后的狀態均相關。于是,在很多序列標注任務中,引入了條件隨機場。

這里詳細了介紹條件隨機場的理論和及其在實體識別中的應用和Tensorflow中的實現。

【NLP】用于序列標注問題的條件隨機場(Conditional Random Field, CRF)

4?循環神經網絡(RNN)

對于一些序列輸入的信息,例如語音、語言等,不同時刻之間的輸入存在相互的影響,需要一種模型能夠“記憶”歷史輸入的信息,進而對整個序列進行完整的特征提取和表征。

循環神經網絡(RNN)就是面對這樣的需求提出來的,它能夠“記憶”序列輸入的歷史信息,從而能夠較好的對整個序列進行語義建模。

RNN雖然理論上可以很漂亮的解決序列數據的訓練,但是它也像DNN一樣有梯度消失的問題,當序列很長的時候問題尤其嚴重。雖然同選擇合適的激活函數等方法能夠一定程度的減輕該問題。但人們往往更青睞于使用RNN的變種。

【NLP】 深度學習NLP開篇-循環神經網絡(RNN)

5?LSTM

LSTM在原本RNN的基礎上增加了CEC的內容,CEC保證了誤差以常數的形式在網絡中流動,這部分通過引入細胞狀態C來體現。

并且,為了解決輸入和輸出在參數更新時的矛盾,在CEC的基礎上添加3個門使得模型變成非線性的,就可以調整不同時序的輸出對模型后續動作的影響。

【NLP】 NLP中應用最廣泛的特征抽取模型-LSTM

6?NLP中Attention機制

人類在對信息進行處理的過程中,注意力不是平均分散的,而是有重點的分布。受此啟發,做計算機視覺的朋友,開始在視覺處理過程中加入注意力機制(Attention)。隨后,做自然語言處理的朋友們,也開始引入這個機制。在NLP的很多任務中,加入注意力機制后,都取得了非常好的效果。

在NLP中,Attention機制是什么呢?從直覺上來說,與人類的注意力分配過程類似,就是在信息處理過程中,對不同的內容分配不同的注意力權重

【NLP】 聊聊NLP中的attention機制

7?特征抽取器Tranformer

Transformer中最重要的特點就是引入了Attention,特別是Multi-Head Attention。作為一個序列輸入的特征抽取器,其編碼能力強大,沒有明顯的缺點。短期內難以看到可以匹敵的競爭對手。

【NLP】 理解NLP中網紅特征抽取器Tranformer

8?BERT

BERT,全稱是Pre-training of Deep Bidirectional Transformers for Language Understanding。注意其中的每一個詞都說明了BERT的一個特征。

Pre-training說明BERT是一個預訓練模型,通過前期的大量語料的無監督訓練,為下游任務學習大量的先驗的語言、句法、詞義等信息。

Bidirectional 說明BERT采用的是雙向語言模型的方式,能夠更好的融合前后文的知識。

Transformers說明BERT采用Transformers作為特征抽取器。

Deep說明模型很深,base版本有12層,large版本有24層。

總的來說,BERT是一個用Transformers作為特征抽取器的深度雙向預訓練語言理解模型

【NLP】 深入淺出解析BERT原理及其表征的內容

9 transformerXL

TransformerXL是Transformer一種非常重要的改進,通過映入Recurrence機制和相對位置編碼,增強了Transformer在長文本輸入上的特征抽取能力。

TransformerXL學習的依賴關系比RNN長80%,比傳統Transformer長450%,在短序列和長序列上都獲得了更好的性能,并且在評估階段比傳統Transformer快1800+倍。

【NLP】TransformerXL:因為XL,所以更牛

10 GPT及GPT2.0

GPT,特別是GPT2.0是一個大型無監督語言模型,能夠生產連貫的文本段落,在許多語言建模基準上取得了 SOTA 表現。而且該模型在沒有任務特定訓練的情況下,能夠做到初步的閱讀理解、機器翻譯、問答和自動摘要。

【NLP】GPT:第一個引入Transformer的預訓練模型

11 XLnet

XLnet集合了目前兩大預訓練模型的優點,在結構上,XLnet采用改進后的transofmerXL作為特征抽取器。在訓練模式上,XLnet實現了BERT的雙向語言模型,引入了PLM和雙流自注意力模型,避免了BERT MLM的缺點。

【NLP】XLnet:GPT和BERT的合體,博采眾長,所以更強

12 NLP綜述

從詞向量開始,到最新最強大的BERT等預訓練模型,梗概性的介紹了深度學習近20年在NLP中的一些重大的進展。

【技術綜述】深度學習在自然語言處理中的應用

知識星球推薦

掃描上面的二維碼,就可以加入我們的星球,助你成長為一名合格的自然語言處理算法工程師。

知識星球主要有以下內容:

(1) 聊天機器人。考慮到聊天機器人是一個非常復雜的NLP應用場景,幾乎涵蓋了所有的NLP任務及應用。所以小Dream哥計劃以聊天機器人作為切入點,通過介紹聊天機器人的原理和實踐,逐步系統的更新到大部分NLP的知識,會包括語義匹配,文本分類,意圖識別,語義匹配命名實體識別、對話管理以及分詞等。

(2) 知識圖譜。知識圖譜對于NLP各項任務效果好壞的重要性,就好比基礎知識對于一個學生成績好壞的重要性。他是NLP最重要的基礎設施,目前各大公司都在著力打造知識圖譜,作為一個NLP工程師,必須要熟悉和了解他。

(3) NLP預訓練模型。基于海量數據,進行超大規模網絡的無監督預訓練。具體的任務再通過少量的樣本進行Fine-Tune。這樣模式是目前NLP領域最火熱的模式,很有可能引領NLP進入一個全新發展高度。你怎么不深入的了解?

總結

希望經過這個專欄,想入門NLP的小伙伴們對這個領域已經有了基本的概念和了解。后續我們還會按照不同的NLP任務,深入各個任務跟大家進行介紹,敬請關注。

有三AI夏季劃

有三AI夏季劃進行中,歡迎了解并加入,系統性成長為中級CV算法工程師。

轉載文章請后臺聯系

侵權必究

往期精選

  • 【每周NLP論文推薦】從預訓練模型掌握NLP的基本發展脈絡

  • 【每周NLP論文推薦】 NLP中命名實體識別從機器學習到深度學習的代表性研究

  • 【每周NLP論文推薦】 介紹語義匹配中的經典文章

  • 【每周NLP論文推薦】 開發聊天機器人必讀的重要論文

總結

以上是生活随笔為你收集整理的【完结】 12篇文章带你完全进入NLP领域,掌握核心技术的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。