NLP、CV、ML全覆盖,这份私藏论文清单你一定要看看
在碎片化閱讀充斥眼球的時(shí)代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第 128?篇文章@xwzhong 推薦
#Sequence Modeling
本文來自斯坦福大學(xué)和 Google Brain,論文主要的想法是深化句子層面的語義表征,跟近期的 BERT 有相通之處,但使用的數(shù)據(jù)量相對于 BERT 少很多。針對有監(jiān)督任務(wù)中數(shù)據(jù)量少的情況,作者提出使用半監(jiān)督的方式強(qiáng)化句子層面的表示。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2749
源碼鏈接
https://github.com/tensorflow/models/tree/master/research/cvt_text
@paperweekly 推薦
#Sentiment Classification
本文是香港中文大學(xué)、阿里巴巴和騰訊發(fā)表于 AAAI 2019 的工作。傳統(tǒng)的基于評論目標(biāo)的情感分析(Target/Aspect-Based Sentiment Analysis, TBSA)通常涉及到評論目標(biāo)抽取和目標(biāo)情感分類兩個(gè)子問題,它們作為獨(dú)立的任務(wù)在近幾年受到了研究者的廣泛關(guān)注。然而,孤立地研究這兩個(gè)子任務(wù)與完整的基于評論目標(biāo)的情感分析任務(wù)是有一定沖突的(例如:目標(biāo)情感分類任務(wù)假設(shè)評論目標(biāo)是給定的但是在 TBSA 任務(wù)中評論目標(biāo)是未知的)。?
因此,本文提出了一種端到端的方案同時(shí)解決評論目標(biāo)抽取和目標(biāo)情感預(yù)測問題。作者將完整的 TBSA 問題定義為一個(gè)信息抽取的任務(wù)并仔細(xì)設(shè)計(jì)了標(biāo)簽集合,使得評論目標(biāo)信息和情感信息能夠包含在一個(gè)標(biāo)簽序列中。
除此之外,作者還提出了一個(gè)新的堆疊式 RNN 來解決 TBSA 問題。這個(gè)模型包含了兩層堆疊的 RNN,上層的 RNN 用于解決完整的 TBSA 問題(預(yù)測 TBSA 的標(biāo)簽序列),下層的 RNN 負(fù)責(zé)檢測評論目標(biāo)的邊界。
為了充分利用評論目標(biāo)的邊界信息,本文提出了一個(gè)組件顯式地把下層 RNN 提取的邊界信息加入到 TBSA 的序列決策中。在序列預(yù)測過程中,作者也嘗試加強(qiáng)當(dāng)前詞和過去一個(gè)時(shí)刻的詞的關(guān)系,來緩解同一個(gè)評論目標(biāo)短語內(nèi)情感標(biāo)簽不一致的問題。
作者在 3 個(gè)標(biāo)準(zhǔn)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),結(jié)果表明本文模型一致優(yōu)于基準(zhǔn)模型和現(xiàn)有的序列標(biāo)注模型。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2718
源碼鏈接
https://github.com/lixin4ever/E2E-TBSA
@jingyihiter 推薦
#Language Model Pretraining
本文是來自 Facebook AI Research 的最新工作,論文針對的是跨語言的語言模型預(yù)訓(xùn)練任務(wù)。本文方法在無監(jiān)督機(jī)器翻譯任務(wù)上提升 9 個(gè) BLEU 值,在有監(jiān)督機(jī)器翻譯上也得到超過 4 個(gè) BLEU 值的提升。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2790
@aforever 推薦
#Word Embeddings
本文是華盛頓大學(xué)和 FAIR 合作的論文,通過最大化詞對與其上下文的點(diǎn)間互信息(pointwise mutual information)來預(yù)訓(xùn)練詞對表示(word pair representations)。這鼓勵模型學(xué)習(xí)更有意義的詞對表示,而不是使用語言建模等更通用的目標(biāo)。在 SQuAD 和 MultiNLI 等要求跨句推理的任務(wù)中,預(yù)訓(xùn)練表示是有效的。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2745
@paperweekly 推薦
#Text Summarization
本文是北京大學(xué)、騰訊、京東和阿里巴巴發(fā)表于 AAAI 2019 的工作。在基于神經(jīng)網(wǎng)絡(luò)的生成式文本摘要研究領(lǐng)域中,傳統(tǒng)的基于序列到序列的模型對文檔主題的建模經(jīng)常出錯。為了解決這個(gè)問題,本文提出了讀者感知的摘要生成任務(wù),它利用讀者的評論來幫助生成符合文檔主題的更好的摘要。
與傳統(tǒng)的生成式摘要任務(wù)不同,讀者感知型摘要面臨兩個(gè)主要挑戰(zhàn):1)評論是非正式的、有噪音的;2)聯(lián)合建模新聞文檔和讀者評論具有一定挑戰(zhàn)性。
為了解決上述挑戰(zhàn),作者設(shè)計(jì)了一個(gè)基于對抗學(xué)習(xí)的讀者感知型摘要生成模型(RASG),它由四個(gè)部分組成:1)基于序列到序列的摘要生成模塊;2)讀者注意力建模模塊來捕捉讀者關(guān)注的主題;3)督導(dǎo)建模模塊來描述生成的摘要和讀者關(guān)注主題之間的語義差距;4)目標(biāo)跟蹤模塊來產(chǎn)生每個(gè)生成步驟的目標(biāo)。
督導(dǎo)和目標(biāo)定位模塊以對抗學(xué)習(xí)的方式來指導(dǎo)框架的訓(xùn)練。作者在自己的文摘數(shù)據(jù)集進(jìn)行了大量實(shí)驗(yàn),結(jié)果表明 RASG 在自動評測和人工評測方面都取得了最好的效果。實(shí)驗(yàn)結(jié)果還證明了本文框架中每個(gè)模塊的有效性。此外,作者還發(fā)布了一個(gè)大規(guī)模數(shù)據(jù)集供進(jìn)一步研究。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2716
數(shù)據(jù)集鏈接
http://t.cn/EAH5JxS
@priver 推薦
#Named Entity Recognition
本文是蘇州大學(xué)發(fā)表于 COLING 2018 的工作,作者嘗試解決了遠(yuǎn)程監(jiān)督存在的兩類問題:1)錯標(biāo);2)漏標(biāo)。對于錯標(biāo)的情況,作者使用了強(qiáng)化學(xué)習(xí)的機(jī)制實(shí)現(xiàn)了一個(gè) instance selector。對于漏標(biāo)的情況,作者考慮了所有可能的 label 序列,再對他們進(jìn)行打分,從而給出最有可能的序列結(jié)果,而不是武斷地就標(biāo)記為 O。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2769
源碼鏈接
https://github.com/rainarch/DSNER
@figo 推薦
#Super-Resolution
本文出自小米原班人馬(上一篇是 MoreMNAS:https://www.paperweekly.site/papers/2740),屬于目前很火的 AutoML Neural Architecture Search。
論文基于彈性搜索(宏觀+微觀)在超分辨率問題上取得了令人震驚的結(jié)果。在相當(dāng)?shù)?FLOPS 下生成了多個(gè)模型,結(jié)果完勝 ECCV 2018 明星模型 CARNM(乘加數(shù)參數(shù)數(shù)量少,PNSR/SSIM 指標(biāo)高,文中稱 dominate),這應(yīng)該是截止至 2018 年可比 FLOPS 約束下的 SOTA(涵蓋 ICCV 2017 和 CVPR 2018)。而達(dá)到這樣的效果,論文基于一臺 V100 用了不到 3 天時(shí)間。
此外,論文還給出了幾個(gè)前向模型。要知道上一篇論文中他們初步結(jié)果是擊敗 CVPR 2016,才半個(gè)月時(shí)間就提升這么大,這也進(jìn)一步驗(yàn)證了 AutoML NAS 技術(shù)的強(qiáng)大和可怕。需要指出的是,該項(xiàng)技術(shù)具有一定的普適性,理論上可以應(yīng)用于任何監(jiān)督學(xué)習(xí),值得關(guān)注和學(xué)習(xí)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2786
源碼鏈接
https://github.com/falsr/FALSR
@paperweekly 推薦
#Person Re-identification
本文來自中科院自動化所和地平線,論文驗(yàn)證了部件對齊在跨域重識別中起著重要的作用。通過強(qiáng)化模型的對齊,作者通過提高模型的泛化性能來提升模型直接跨庫測試的性能;另一方面,本文提出的部件對齊模型可以很自然地利用目標(biāo)域無標(biāo)簽數(shù)據(jù)實(shí)現(xiàn)領(lǐng)域自適應(yīng),使得模型可以適配目標(biāo)域。
作者在 Market1501、CUHK03、DukeMTMC-reID 和 MSMT17 四個(gè)目前最大的行人重識別數(shù)據(jù)庫上證明了本文方法的有效性,并且取得了 SOTA 結(jié)果。同時(shí),出于完整性,論文還通過實(shí)驗(yàn)證明了和現(xiàn)有跨域方法的互補(bǔ)性。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2736
源碼鏈接
https://github.com/huanghoujing/EANet
@paperweekly 推薦
#Object Detection
本文是密歇根大學(xué)發(fā)表于 ECCV 2018 的工作。當(dāng)前的目標(biāo)檢測算法大多基于 Anchor,引入 Anchor 容易導(dǎo)致正負(fù)樣本不均衡和引入更多超參數(shù)。本文在不采用 Anchor 的前提下取得了不錯效果,是一篇非常有意思的探索工作。
具體來說,論文借鑒了人體關(guān)鍵點(diǎn)檢測的思路來做目標(biāo)檢測,通過檢測目標(biāo)框的左上角和右下角兩個(gè)關(guān)鍵點(diǎn)就能得到預(yù)測框。其次,整個(gè)檢測網(wǎng)絡(luò)訓(xùn)練是從頭開始的,且不基于預(yù)訓(xùn)練的分類模型,這使得用戶能夠自由設(shè)計(jì)特征提取網(wǎng)絡(luò),不用受預(yù)訓(xùn)練模型的限制。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2771
源碼鏈接
https://github.com/princeton-vl/CornerNet
@WHUSteven 推薦
#3D Reconstruction
本文是普林斯頓、Google 和 MIT 發(fā)表于 CVPR 2018 的工作,論文使用無監(jiān)督訓(xùn)練的方法基于 3DMM 進(jìn)行人臉三維重建。作者主要使用了基于編碼器和解碼器模型,創(chuàng)新性地將人臉識別網(wǎng)絡(luò)引入訓(xùn)練的損失函數(shù),使得生成的 3D 人臉能很好地保留了輸入圖片的人臉個(gè)體特征。
該模型旨在擬合形狀和紋理,并沒有學(xué)習(xí)姿態(tài)表情和光照。算法的編碼器接受圖像作為輸入,輸出用于 3DMM 模型的參數(shù)。解碼器接受參數(shù)后合成 3D 人臉。
為了使網(wǎng)絡(luò)不僅能保持個(gè)體信息,還能生成自然真實(shí)的人臉,作者提出了 3 個(gè)新的損失函數(shù),即批分布損失(batch distribution loss)、回環(huán)損失(loopback loss)和多視角身份損失(multi-view identity loss)。 批分布損失可使每個(gè)批的統(tǒng)計(jì)量與 3DMM 的統(tǒng)計(jì)量一致。回環(huán)損失可保證生成的 3D 人臉模型的 2D 成像圖片重新進(jìn)入編碼器得到的參數(shù)和原圖的參數(shù)盡量一致。多視角身份損失能使得模型學(xué)習(xí)到獨(dú)立于觀察角度的個(gè)體特征。?
實(shí)驗(yàn)結(jié)果說明,模型不僅僅可以生成與輸入圖像高度相似的 3D 人臉,而且生成的人臉獨(dú)立于輸入的表情和姿態(tài),甚至被遮擋的人臉也可以達(dá)到不錯的生成效果。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2747
源碼鏈接
https://github.com/google/tf_mesh_renderer
@whyguu 推薦
#Active Learning
本文提出了兩種訓(xùn)練數(shù)據(jù)集抽取子集的方法 Facility-Location & Disparity-Min。通過抽取的子集來初步表示整個(gè)樣本集可以加速網(wǎng)絡(luò)超參數(shù)的優(yōu)化時(shí)間。通過從大量無標(biāo)簽樣本中抽取數(shù)據(jù)減少標(biāo)注成本。此外,文章還提供了一種貪婪搜索算法來減少搜索的時(shí)間。做視頻或超大樣本學(xué)習(xí)的同學(xué)可以關(guān)注一波,看是否有用。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2742
@zhangjun 推薦
#Bayesian Deep Learning
本文的亮點(diǎn)在于用 Bayes By Backprop 算法對 bayesian CNN 的每個(gè)參數(shù)分布進(jìn)行了學(xué)習(xí),不同于 Gal 15 年提出的 MC Dropout 的方法,是一種基于貝葉斯后驗(yàn)推斷的方法。
在此之前,Bayesian MLP 和 RNN 都已有了相應(yīng)的變分近似求解方法,本文針對 CNN 的卷積層進(jìn)行了相應(yīng)的改進(jìn),取得了不錯的效果。相比于 Gal 的 MC Dropout 優(yōu)勢不明顯,而 MC Dropout 的計(jì)算效率則快非常多。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2731
源碼鏈接
https://github.com/felix-laumann/Bayesian_CNN
@QAQ 推薦
#Neural Networks
本文是 Uber AI Labs 發(fā)表于 ICLR 2019 的工作,論文提出了一種受生物學(xué)啟發(fā)的訓(xùn)練網(wǎng)絡(luò)自我修改權(quán)重的方法,并且提出了一種可靠的可塑性框架,該框架已經(jīng)在各種監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)任務(wù)上提高了性能,可通過梯度下降進(jìn)行訓(xùn)練,為大規(guī)模自優(yōu)化神經(jīng)網(wǎng)絡(luò)開辟了新的研究方向。實(shí)現(xiàn)了學(xué)習(xí)如何學(xué)習(xí)(Learning to learn)的網(wǎng)絡(luò)的基礎(chǔ)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2774
@paperweekly 推薦
#Recommender Systems
本文來自 CMU。針對協(xié)同過濾中的冷啟動問題,作者提出了一種基于 DQN 的問卷調(diào)查法來學(xué)習(xí)如何在電影推薦系統(tǒng)中處理用戶冷啟動。DQN 生成問卷問題,由冷啟動用戶來回答。根據(jù)用戶對前一個(gè)問題的響應(yīng),DQN 將動態(tài)生成后續(xù)問題。一旦問卷調(diào)查完成,問答信息將被傳遞到多層感知器中(MLP),并生成一個(gè)預(yù)測的 user embedding。一旦有了 user embedding 和電影 embedding,系統(tǒng)就可以對電影評級進(jìn)行建模。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2691
@wwwangzhch 推薦
#Memory Networks
本文是北京大學(xué)、IBM 與佐治亞理工發(fā)表在 AAAI 2019 上的論文,作者將電子病歷數(shù)據(jù)(Electronic Health Records, EHR)與藥物相互反應(yīng)數(shù)據(jù)(Drug-Drug Interaction, DDI)通過圖卷積網(wǎng)絡(luò)轉(zhuǎn)換成 Memory Bank,并結(jié)合病人的歷史病歷記錄生成 Dynamic Memory,動態(tài)調(diào)整損失函數(shù)以使得系統(tǒng)在較高精確度與較低 DDI rate 之間權(quán)衡,在 MIMIC-III 數(shù)據(jù)集上使用雅卡爾相似系數(shù)、Average Precision、Average Recall 等多種評價(jià)指標(biāo)均取得了最高的推薦準(zhǔn)確率與極低的 DDI rate(僅次于邏輯回歸)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2651
源碼鏈接
https://github.com/sjy1203/GAMENet
@zkt18?推薦
#Neural Networks
本文是 UIUC、Snap 和字節(jié)跳動發(fā)表于 ICLR 2019 的工作,論文提出了一個(gè)可瘦身的神經(jīng)網(wǎng)絡(luò),針對不同硬件和運(yùn)行環(huán)境,可以快速提供與之相適應(yīng)的 CNN 模型來完成任務(wù),支持在移動設(shè)備上進(jìn)行訓(xùn)練。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2689
源碼鏈接
https://github.com/JiahuiYu/slimmable_networks
@ZSCDumin?推薦
#Group Recommendation
本文是湖南大學(xué)和新加坡國立大學(xué)發(fā)表于 SIGIR 2018 的工作,論文應(yīng)用神經(jīng)協(xié)同網(wǎng)絡(luò)和注意力機(jī)制為群組用戶進(jìn)行 Top-N 商品推薦,主要解決了群組用戶興趣的動態(tài)組合、群組與個(gè)人用戶的協(xié)同商品推薦,以及新用戶的冷啟動問題。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2732
源碼鏈接
https://github.com/LianHaiMiao/Attentive-Group-Recommendation
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙
?禮物領(lǐng)取方式?
推薦人請根據(jù)論文詳情頁底部留言
添加小助手領(lǐng)取禮物
*每位用戶僅限領(lǐng)取一次
想要贏取以上周邊好禮?
點(diǎn)擊閱讀原文即刻推薦論文吧!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
??又為寫作思路熬到禿頭?16篇最新論文打包送你
??收下這 16 篇最新論文,周會基本不用愁
??這 16 篇最新論文,幫你輕松積攢知識點(diǎn)
??本周NLP、CV、機(jī)器學(xué)習(xí)論文精選推薦
??本周有哪些值得讀的AI論文?進(jìn)來給你答案
論文多到讀不完?不如看看我們?yōu)槟憔x的這15篇
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢??答案就是:你不認(rèn)識的人。
總有一些你不認(rèn)識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個(gè),讓知識真正流動起來。
??來稿標(biāo)準(zhǔn):
? 稿件確系個(gè)人原創(chuàng)作品,來稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會添加“原創(chuàng)”標(biāo)志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請單獨(dú)在附件中發(fā)送?
? 請留下即時(shí)聯(lián)系方式(微信或手機(jī)),以便我們在編輯發(fā)布時(shí)和作者溝通
?
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 獲取更多論文推薦
總結(jié)
以上是生活随笔為你收集整理的NLP、CV、ML全覆盖,这份私藏论文清单你一定要看看的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Google BERT应用之《红楼梦》对
- 下一篇: 从Wasserstein距离、对偶理论到