快醒醒,一大波最新 AI 论文加开源代码来袭!
在碎片化閱讀充斥眼球的時(shí)代,越來越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第?62?篇文章ETH-DS3Lab at SemEval-2018 Task 7: Effectively Combining Recurrent and Convolutional Neural Networks for Relation Classification and Extraction
@theodoric008 推薦
#Relation Extraction
本文來自蘇黎世聯(lián)邦理工學(xué)院 DS3Lab,文章針對(duì)實(shí)體關(guān)系抽取任務(wù)進(jìn)行了非常系統(tǒng)的實(shí)驗(yàn),并在第十二屆國際語義評(píng)測(cè)比賽 SemEval 2018 的語義關(guān)系抽取和分類任務(wù)上獲得冠軍。本文思路嚴(yán)謹(jǐn),值得國內(nèi)學(xué)者們仔細(xì)研讀。
論文鏈接
https://www.paperweekly.site/papers/1833
Personalizing Dialogue Agents: I have a dog, do you have pets too?@yihongchen 推薦
#Dialogue System
本文是 Facebook AI Research 發(fā)表于 NIPS 2018 的工作。論文根據(jù)一個(gè)名為 PERSONA-CHAT 的對(duì)話數(shù)據(jù)集來訓(xùn)練基于 Profile 的聊天機(jī)器人,該數(shù)據(jù)集包含超過 16 萬條對(duì)話。
本文致力于解決以下問題:
聊天機(jī)器人缺乏一致性格特征
聊天機(jī)器人缺乏長(zhǎng)期記憶
聊天機(jī)器人經(jīng)常給出模糊的回應(yīng),例如 I don't know
論文鏈接
https://www.paperweekly.site/papers/1802
數(shù)據(jù)集鏈接
https://github.com/facebookresearch/ParlAI/tree/master/parlai/tasks/personachat
DiSAN: Directional Self-Attention Network for RNN/CNN-Free Language Understanding
@zhkun 推薦
#Natural Language Understanding
本文是悉尼科技大學(xué)發(fā)表于 AAAI 2018 的工作,這篇文章是對(duì) Self-Attention 的另一種應(yīng)用,作者提出一種新的方向性的 Attention,從而能更加有效地理解語義。
論文鏈接
https://www.paperweekly.site/papers/1822
代碼鏈接
https://github.com/shaohua0116/Group-Normalization-Tensorflow
@chlr1995 推薦
#Object Detection
本文來自清華大學(xué)和 Face++,文章分析了使用 ImageNet 預(yù)訓(xùn)練網(wǎng)絡(luò)調(diào)優(yōu)檢測(cè)器的缺陷,研究通過保持空間分辨率和擴(kuò)大感受野,提出了一種新的為檢測(cè)任務(wù)設(shè)計(jì)的骨干網(wǎng)絡(luò) DetNet。
實(shí)驗(yàn)結(jié)果表明,基于低復(fù)雜度的 DetNet59 骨干網(wǎng)絡(luò),在 MSCOCO 目標(biāo)檢測(cè)和實(shí)例分割追蹤任務(wù)上都取得當(dāng)前最佳的成績(jī)。
論文鏈接
https://www.paperweekly.site/papers/1844
@chlr1995 推薦
#Video Caption
本文以《摩登原始人》的動(dòng)畫片段作為訓(xùn)練數(shù)據(jù),對(duì)每個(gè)片段進(jìn)行詳細(xì)的文本標(biāo)注,最終訓(xùn)練得到一個(gè)可以通過給定腳本或文字描述生成動(dòng)畫片段的模型。
模型稱為 Craft,分為布局、實(shí)體、背景,三個(gè)部分。雖然現(xiàn)階段模型存在著很多問題,但是這個(gè)研究在理解文本和視頻圖像高層語義方面有著很大的意義。
論文鏈接
https://www.paperweekly.site/papers/1838
@Aidon 推薦
#Image Caption
本文來自華盛頓大學(xué)和微軟,文章提出一個(gè)基于 GAN 的 Image Caption 框架,亮點(diǎn)如下:
1. 提出用 comparative relevance score 來衡量 image-text 的質(zhì)量從而指導(dǎo)模型的訓(xùn)練,并且在訓(xùn)練過程中引入 unrelated captions;
2. 利用 human evaluations 評(píng)估 caption 的 accuracy,給出了和傳統(tǒng)的六個(gè)評(píng)價(jià)指標(biāo)的結(jié)果對(duì)比;
3. 提出通過比較 caption feature vectors 的 variance 來評(píng)估 caption 的 diversity。
論文鏈接
https://www.paperweekly.site/papers/1842
@robertdlut 推薦
#Self-Attention
本文是 Andrew McCallum 團(tuán)隊(duì)?wèi)?yīng)用 Self-Attention 在生物醫(yī)學(xué)關(guān)系抽取任務(wù)上的一個(gè)工作。這篇論文作者提出了一個(gè)文檔級(jí)別的生物關(guān)系抽取模型,作者使用 Google 提出包含 Self-Attention 的 transformer 來對(duì)輸入文本進(jìn)行表示學(xué)習(xí),和原始的 transformer 略有不同在于他們使用了窗口大小為 5 的 CNN 代替了原始 FNN。
論文鏈接
https://www.paperweekly.site/papers/1787
代碼鏈接
https://github.com/patverga/bran
@Ttssxuan 推薦
#Recommender System
本文系統(tǒng)地介紹了 Session-based Recommendation,主要針對(duì) baseline methods, nearest-neighbor techniques, recurrent neural networks 和 (hybrid) factorization-based methods 等 4 大類算法進(jìn)行介紹。
此外,本文使用 RSC15、TMALL、ZALANDO、RETAILROCKET、8TRACKS 、AOTM、30MUSIC、NOWPLAYING、CLEF 等 7 個(gè)數(shù)據(jù)集進(jìn)行分析,在 Mean Reciprocal Rank (MRR)、Coverage、Popularity bias、Cold start、Scalability、Precision、Recall 等指標(biāo)上進(jìn)行比較。
論文鏈接
https://www.paperweekly.site/papers/1809
代碼鏈接
https://www.dropbox.com/sh/7qdquluflk032ot/AACoz2Go49q1mTpXYGe0gaANa?dl=0
@chlr1995 推薦
#Neural Network
本文是 ICLR 2018 最佳論文之一。在神經(jīng)網(wǎng)絡(luò)優(yōu)化方法中,有很多類似 Adam、RMSprop 這一類的自適應(yīng)學(xué)習(xí)率的方法,但是在實(shí)際應(yīng)用中,雖然這一類方法在初期下降的很快,但是往往存在著最終收斂效果不如 SGD+Momentum 的問題。
作者發(fā)現(xiàn),導(dǎo)致這樣問題的其中一個(gè)原因是因?yàn)槭褂昧酥笖?shù)滑動(dòng)平均,這使得學(xué)習(xí)率在某些點(diǎn)會(huì)出現(xiàn)激增。在實(shí)驗(yàn)中,作者給出了一個(gè)簡(jiǎn)單的凸優(yōu)化問題,結(jié)果顯示 Adam 并不能收斂到最優(yōu)點(diǎn)。
在此基礎(chǔ)上,作者提出了一種改進(jìn)方案,使得 Adam 具有長(zhǎng)期記憶能力,來解決這個(gè)問題,同時(shí)沒有增加太多的額外開銷。
論文鏈接
https://www.paperweekly.site/papers/1841
@jamiechoi 推薦
#Image Captioning
本文是佐治亞理工學(xué)院發(fā)表于 CVPR 2018 的工作,文章結(jié)合了 image captioning 的兩種做法:以前基于 template 的生成方法(baby talk)和近年來主流的 encoder-decoder 方法(neural talk)。
論文主要做法其實(shí)跟作者以前的工作"Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning"類似:在每一個(gè) timestep,模型決定生成到底是生成 textual word(不包含視覺信息的連接詞),還是生成 visual word。其中 visual word 的生成是一個(gè)自由的接口,可以與不同的 object detector 對(duì)接。
論文鏈接
https://www.paperweekly.site/papers/1801
代碼鏈接
https://github.com/jiasenlu/NeuralBabyTalk
@wanzysky 推薦
#Semantic Segmentation
本文提出了一種與類別預(yù)測(cè)相關(guān)的網(wǎng)絡(luò)結(jié)構(gòu),使得在一定程度上降低了分割任務(wù)的難度。Channel attention 和空間 attention 形成互補(bǔ),Global contextual loss 增強(qiáng) context 信息,同時(shí)提高了小物體的分割精度。
論文鏈接
https://www.paperweekly.site/papers/1814
代碼鏈接
https://github.com/zhanghang1989/PyTorch-Encoding
@VIPSP 推薦
#Convolutional Neural Network
圖卷積神經(jīng)網(wǎng)絡(luò)(Graph CNN)是經(jīng)典 CNN 的推廣方法,可用于處理分子數(shù)據(jù)、點(diǎn)云和社交網(wǎng)絡(luò)等圖數(shù)據(jù)。Graph CNN 中的的濾波器大多是為固定和共享的圖結(jié)構(gòu)而構(gòu)建的。但是,對(duì)于大多數(shù)真實(shí)數(shù)據(jù)而言,圖結(jié)構(gòu)的大小和連接性都是不同的。
本論文提出了一種有泛化能力且靈活的 Graph CNN,其可以使用任意圖結(jié)構(gòu)的數(shù)據(jù)作為輸入。通過這種方式,可以在訓(xùn)練時(shí)為每個(gè)圖數(shù)據(jù)構(gòu)建一個(gè)任務(wù)驅(qū)動(dòng)的自適應(yīng)圖(adaptive graph)。
為了有效地學(xué)習(xí)這種圖,作者提出了一種距離度量學(xué)習(xí)方法。并且在九個(gè)圖結(jié)構(gòu)數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn),結(jié)果表明本文方法在收斂速度和預(yù)測(cè)準(zhǔn)確度方面都有更優(yōu)的表現(xiàn)。
論文鏈接
https://www.paperweekly.site/papers/1837
本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語言處理、計(jì)算機(jī)視覺、人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點(diǎn)擊「閱讀原文」即刻加入社區(qū)!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
??來不及想標(biāo)題了,我要去打包收藏了 | 本周值得讀
選對(duì)論文,效率提升50% | 本周值得讀
好看的論文千篇一律,有趣的Github項(xiàng)目萬里挑一!
#作 者 招 募#
讓你的文字被很多很多人看到,喜歡我們不如加入我們
我是彩蛋?
?解鎖新功能:熱門職位推薦!
PaperWeekly小程序升級(jí)啦
今日arXiv√猜你喜歡√熱門職位√
找全職找實(shí)習(xí)都不是問題
?
?解鎖方式?
1. 識(shí)別下方二維碼打開小程序
2. 用PaperWeekly社區(qū)賬號(hào)進(jìn)行登陸
3. 登陸后即可解鎖所有功能
?職位發(fā)布?
請(qǐng)?zhí)砑有≈治⑿?#xff08;pwbot02)進(jìn)行咨詢
?
長(zhǎng)按識(shí)別二維碼,使用小程序
*點(diǎn)擊閱讀原文即可注冊(cè)
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 加入社區(qū)刷論文
總結(jié)
以上是生活随笔為你收集整理的快醒醒,一大波最新 AI 论文加开源代码来袭!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Wasserstein距离在生成模型中的
- 下一篇: 等你Battle!——11万个真实场景配