@即将开学的你,请收好这份必读论文清单
在碎片化閱讀充斥眼球的時(shí)代,越來(lái)越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第 134?篇文章
@FindMyPaper 推薦
#Relation Extraction
本文是清華大學(xué)劉知遠(yuǎn)老師組發(fā)表于 ACL 2019 的工作,論文描述了當(dāng)今少有的抽取關(guān)系間關(guān)系的模型,有助于關(guān)系預(yù)測(cè)、關(guān)系分類等任務(wù)的發(fā)展。具體來(lái)說(shuō),作者提出根據(jù)自然語(yǔ)言句子生成圖神經(jīng)網(wǎng)絡(luò)(GP-GNNs)的參數(shù),使得 GNN 能夠處理非結(jié)構(gòu)化文本輸入的關(guān)系推理。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3103
@xlf?推薦
#Recommendation Systems
本文來(lái)自 Facebook,論文提出了一個(gè)深度學(xué)習(xí)推薦模型 DLRM,該模型基于 PyTorch 和 Caffe2 實(shí)現(xiàn)。DLRM 結(jié)合了協(xié)同過濾和基于預(yù)測(cè)分析方法的原理,相較于其他模型有所提升,從而使其能夠有效地處理生產(chǎn)規(guī)模的數(shù)據(jù),并得到當(dāng)前最佳結(jié)果。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3114
源碼鏈接
https://github.com/facebookresearch/dlrm
@figo 推薦
#Object Detection
本文是比較全面的一篇目標(biāo)檢測(cè)綜述,幾乎涵蓋了 20 年來(lái)目標(biāo)檢測(cè)的各種里程碑,從傳統(tǒng)方法到深度學(xué)習(xí),值得一看。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3046
@erutan?推薦
#Question Answering
本文是南京大學(xué)和華為發(fā)表于 ACL 2019 的工作,論文關(guān)注的是單關(guān)系 KBQA 中關(guān)系抽取任務(wù),認(rèn)為沒怎么見過的關(guān)系做不對(duì)是因?yàn)檫@類關(guān)系缺乏一個(gè)很好的表示。所以本文用了一個(gè) adapter ,去基于預(yù)先訓(xùn)練的關(guān)系表示,學(xué)習(xí)沒見過的關(guān)系應(yīng)該如何表示。引入對(duì)抗目標(biāo)與重構(gòu)目標(biāo),用重構(gòu) simpleQ 做的實(shí)驗(yàn)。結(jié)論表示在 unseen 部分有顯著提升,其它部分也是 comparable 的。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3122
源碼鏈接
https://github.com/wudapeng268/KBQA-Adapter
@villawang?推薦
#Generative Adversarial Networks
本文來(lái)自柏林城市大學(xué)和英特爾。論文引入了一種以神經(jīng)信號(hào)作為監(jiān)督信息來(lái)訓(xùn)練 CNN 的新思想。此外,論文還引入與人類感知相一致的 GAN 的評(píng)價(jià)指標(biāo),并且該指標(biāo)只需要更小的樣本量。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3067
@QAQ 推薦
#Neural Architecture Search
本文是來(lái)自 IBM Research 的 NAS 綜述。作者從強(qiáng)化學(xué)習(xí)與遺傳算法、代理與 one-shot 的角度對(duì) NAS 的進(jìn)展進(jìn)行了總結(jié),并對(duì)約束和多目標(biāo)架構(gòu)搜索、自動(dòng)數(shù)據(jù)增強(qiáng)、優(yōu)化器和激活函數(shù)搜索等進(jìn)行了討論。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3151
@xy118 推薦
#Cloze Test
本文來(lái)自清華大學(xué)和南洋理工。完形填空測(cè)試,由于其簡(jiǎn)單的形式,常被用來(lái)考察機(jī)器閱讀理解能力,中文方面已經(jīng)有了人民日?qǐng)?bào)(PD)、兒童寓言故事(CFT)、CMRC2017 等數(shù)據(jù)集。
而這篇論文中,作者以完形填空的形式對(duì)中文里特有的語(yǔ)言現(xiàn)象——成語(yǔ)進(jìn)行了測(cè)試和研究。成語(yǔ)在日常交流及各種文獻(xiàn)中經(jīng)常被使用,機(jī)器如何更好地對(duì)成語(yǔ)進(jìn)行理解和表征這一問題的重要性不言而喻。與其他詞語(yǔ)相比,成語(yǔ)的語(yǔ)義具有以下兩個(gè)特點(diǎn):非合成性、隱喻。此外,近義詞的存在也會(huì)對(duì)機(jī)器在特定語(yǔ)境下選出正確選項(xiàng)造成干擾。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3132
數(shù)據(jù)集鏈接
https://github.com/zhengcj1/ChID-Dataset
@sheqi0399 推薦
#Generative Adversarial Networks
本文是一篇來(lái)自柏林城市大學(xué)和英特爾的綜述文章,作者對(duì)最近幾年的 GAN 研究進(jìn)行了梳理,以 loss 和網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行分類,并對(duì)一些經(jīng)典的 GAN 結(jié)構(gòu)和變種進(jìn)行了對(duì)比。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3064
@superhy 推薦
#Convolutional Neural Network
本文提出了一種新的“內(nèi)成像”機(jī)制來(lái)模擬卷積通道的分組關(guān)系。該方法可以提高卷積網(wǎng)絡(luò)的效率,增強(qiáng)信道間的協(xié)作。內(nèi)成像機(jī)構(gòu)的設(shè)計(jì)是非常獨(dú)特的,它就像把透鏡放入卷積網(wǎng)絡(luò)。卷積濾波器是一種建模局部區(qū)域特征關(guān)系的利器,“內(nèi)成像”這種設(shè)計(jì)讓我們能夠利用卷積濾波器來(lái)建模卷積通道間的成組關(guān)系,比 SE 模型更明顯地提升卷積網(wǎng)絡(luò)的建模效率。所提出的內(nèi)成像機(jī)制可以應(yīng)用于各種 CNN 體系結(jié)構(gòu)。它重量輕、可擴(kuò)展、適應(yīng)性強(qiáng),具有良好的應(yīng)用前景。模型設(shè)計(jì)輕便簡(jiǎn)潔,可以有效激發(fā)更小規(guī)模的卷積網(wǎng)絡(luò)接近甚至超越更大規(guī)模網(wǎng)絡(luò)結(jié)構(gòu)的效果。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3085
@erutan 推薦
#Question Answering
一堆 big name 的公司搞的一個(gè) QA 數(shù)據(jù)集,100k 級(jí)別,回答是比較長(zhǎng)的生成式的文字,從 Reddit ELI5 中獲得,即回答使用語(yǔ)言是 5 歲小朋友可以看懂的那種。問題以 how、why 為主,what 開頭的復(fù)合問題也有一些。評(píng)價(jià)指標(biāo)以 ROUGE 等為主。
▲ ?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3124
源碼鏈接
https://github.com/facebookresearch/ELI5
@jimy 推薦
#Recommender Systems
本文是麥考瑞大學(xué)和悉尼科技大學(xué)發(fā)表于 IJCAI 2019 的綜述文章,論文對(duì)當(dāng)前深受大家關(guān)注的序列推薦系統(tǒng)做了一個(gè)系統(tǒng)的總結(jié)和回顧。該文章系統(tǒng)闡述了為什么需要序列推薦系統(tǒng),它與傳統(tǒng)的推薦系統(tǒng)如協(xié)同過濾有什么差別,以及什么是序列推薦系統(tǒng)。
作者從數(shù)據(jù)特征的角度出發(fā),系統(tǒng)闡述了序列推薦系統(tǒng)中面臨的主要問題和挑戰(zhàn)以及目前的相應(yīng)解決方案,系統(tǒng)地總結(jié)了整個(gè)序列推薦系統(tǒng)的技術(shù)發(fā)展脈絡(luò)。該文章深入淺出,淺顯易懂,避免了高深的數(shù)學(xué)公式和復(fù)雜的邏輯推導(dǎo)與定義,很容易讀懂,但同時(shí)包含了該領(lǐng)域最新的發(fā)展動(dòng)態(tài)。特別適合于想進(jìn)入這個(gè)領(lǐng)域的初學(xué)者閱讀。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3079
@Layumi 推薦
#Person Re-identification
本文是英偉達(dá)、悉尼科技大學(xué)和澳大利亞國(guó)立大學(xué)發(fā)表于 CVPR 2019 的工作。行人重識(shí)別的難點(diǎn)在于不同攝像頭下人的類內(nèi)變化(包括攝像頭的視角/光照/人的姿態(tài)等)。本文沒有使用任何部件匹配的損失,而是僅僅讓模型去“看”更多的訓(xùn)練圖像來(lái)提升行人重識(shí)別的效果。而這些訓(xùn)練圖像都是由 GAN 生成的。
相比于 ICCV 2017 時(shí)第一篇使用 GAN 來(lái)生成行人圖像的文章,本文不僅在生成圖像質(zhì)量上有了大的提升,同時(shí)也將行人重識(shí)別的模型與生成模型做了有機(jī)的結(jié)合。從行人重識(shí)別模型提取好的行人特征可以作為 GAN 的 input,而 GAN 生成圖像可以用來(lái)finetune行人重識(shí)別模型。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2999
論文鏈接
https://github.com/NVlabs/DG-Net
@tobiaslee 推薦
#Text Style Transfer
本文是北大萬(wàn)小軍老師組的文章,關(guān)注的是文本的風(fēng)格遷移任務(wù)。文章通過 autoencoder 編碼輸入,在得到的 latent representation 上做擾動(dòng),直到分類器對(duì)其進(jìn)行分類的結(jié)果為目標(biāo)風(fēng)格,再利用改變后的 latent vector 解碼得到目標(biāo)風(fēng)格的文本。這方法和之前 Goodfellow 的 adversarial example 非常類似,通過對(duì) loss function 計(jì)算梯度來(lái)更新輸入從而改變分類器的分類結(jié)果,這里巧妙地和文本風(fēng)格遷移相結(jié)合,能夠達(dá)到控制遷移的層次(aspect)以及強(qiáng)度(degree)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3062
源碼鏈接
https://github.com/nrgeup/controllable-text-attribute-transfer
@zhangjichao?推薦
#Image-to-image Translation
本文提出了一種新穎的方式去解決人眼注意力矯正的問題,在經(jīng)典的?GAN-based?修復(fù)方法上提出了一種自我引導(dǎo)的預(yù)訓(xùn)練模型來(lái)引導(dǎo)修復(fù),進(jìn)而保持修復(fù)的身份特征。本文為了穩(wěn)定網(wǎng)絡(luò)的訓(xùn)練和提高修復(fù)的質(zhì)量,提出了一種自監(jiān)督學(xué)習(xí)。這種新穎簡(jiǎn)單的自監(jiān)督學(xué)習(xí)很容易擴(kuò)展到其他圖像翻譯、圖像修復(fù)領(lǐng)域中。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3058
論文鏈接
https://github.com/zhangqianhui/GazeCorrection
@xwzhong?推薦
#Text Classification
本文來(lái)自復(fù)旦大學(xué)。針對(duì) BERT 在文本分類中的應(yīng)用,作者嘗試了不同的微調(diào)方式來(lái)評(píng)測(cè) BERT 的效果,主要分三大類:Fine-Tuning Strategies、Further Pretraining 和 Multi-task Fine-Tuning。
這是一篇實(shí)驗(yàn)性的文章,把 BERT 盡可能的微調(diào)方式都列舉了,總的來(lái)講效果比較好的方式是:
長(zhǎng)文本仍需要進(jìn)行實(shí)驗(yàn)才能確定是用 head、tail 還是 head+tail,這個(gè)跟具體的任務(wù)特點(diǎn)相關(guān);
從準(zhǔn)確率來(lái)看,一般選擇最后一層 [CLS] 的輸出,但如果要考慮線上的時(shí)間效率問題,則可以使用中間層輸出,個(gè)人在其他任務(wù)中也發(fā)現(xiàn),隨著 [CLS] 層數(shù)的增加,準(zhǔn)確率確實(shí)不斷往上增,但時(shí)間復(fù)雜度也如此;
如果具體任務(wù)內(nèi)的無(wú)標(biāo)注數(shù)足夠多,則用其再預(yù)訓(xùn)練,如果不多,則可利用領(lǐng)域內(nèi)的數(shù)據(jù),同時(shí)輸出中間結(jié)果,并進(jìn)行具體任務(wù)的微調(diào)測(cè)試。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/3043
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙
?禮物領(lǐng)取方式?
推薦人請(qǐng)根據(jù)論文詳情頁(yè)底部留言
添加小助手領(lǐng)取禮物
*每位用戶僅限領(lǐng)取一次
想要贏取以上周邊好禮?
點(diǎn)擊閱讀原文即刻推薦論文吧!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
??近期我們?cè)谧x的那些優(yōu)質(zhì)論文,你不了解下?
??NLP、CV、ML方向最新論文清單
??本周值得讀的15篇AI論文,還有源碼搭配服用
??近期值得讀的10篇GAN進(jìn)展論文
??近期必讀的12篇「推薦系統(tǒng)」相關(guān)論文
??知識(shí)圖譜合輯:從NeurIPS 2018到AAAI 2019
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。
總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。
PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。
??來(lái)稿標(biāo)準(zhǔn):
? 稿件確系個(gè)人原創(chuàng)作品,來(lái)稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請(qǐng)?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會(huì)添加“原創(chuàng)”標(biāo)志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請(qǐng)單獨(dú)在附件中發(fā)送?
? 請(qǐng)留下即時(shí)聯(lián)系方式(微信或手機(jī)),以便我們?cè)诰庉嫲l(fā)布時(shí)和作者溝通
?
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 獲取更多論文推薦
總結(jié)
以上是生活随笔為你收集整理的@即将开学的你,请收好这份必读论文清单的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ICCV 2019 | 可选择性与不变性
- 下一篇: 发布可伸缩超网SCARLET,小米Aut