又为写作思路熬到秃头?这16篇最新论文打包送你
在碎片化閱讀充斥眼球的時(shí)代,越來(lái)越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第 111?篇文章@wangqy96 推薦
#Knowledge Base
本文是倫斯勒理工大學(xué)發(fā)表于 INLG 2018 的工作,論文為結(jié)構(gòu)化 KB 提供了有效的描述生成,并且提出基于 KB 重建的 metric 來(lái)評(píng)估在輸出中正確表達(dá)的事實(shí)數(shù)量。此外,論文還創(chuàng)建一個(gè)基于 Wikipedia 的 KB description dataset,包含 106,216 個(gè)實(shí)體。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2369
源碼鏈接
https://github.com/EagleW/Describing_a_Knowledge_Base
@paperweekly 推薦
#Document Relevance Ranking
本文是 Google AI 發(fā)表于 EMNLP 2018 的工作,主要研究的是深度學(xué)習(xí)在檢索中的應(yīng)用。論文提出了三種針對(duì)文檔相關(guān)性排序的新模型,這幾種模型基于此前的 DRMM 模型(A Deep Relevance Matching Model for Ad-hoc Retrieval)。具體來(lái)說(shuō),DRMM 模型使用的是上下文無(wú)關(guān)的 term encoding 編碼方式,而本文提出的改進(jìn)模型則借鑒了 PACRR 的思想,融合了 n-grams 和不同方式編碼的上下文信息。
作者在 BioASQ 和 TREC Robust 2004 兩個(gè)數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)證明本文模型優(yōu)于 BM25-baseline、DRMM 和 PACRR。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2402
源碼鏈接
https://github.com/nlpaueb/deep-relevance-ranking
@paperweekly 推薦
#Graph to Sequence Learning
本文是 IBM Research 發(fā)表于 ACL 2018 的工作,論文提出了一種將圖直接映射為序列的端到端模型——Graph2Seq。與 Seq2Seq 類(lèi)似,該模型由一個(gè) Graph 編碼器和一個(gè) Sequence 解碼器組成。Graph 編碼器將輸入的圖映射為一個(gè)圖的表示以及一系列節(jié)點(diǎn)表示,而 Sequence 解碼器則基于這些表示生成相應(yīng)的目標(biāo)序列。
通過(guò)在 bAbI 任務(wù)、最短路徑任務(wù)以及自然語(yǔ)言生成任務(wù)上的實(shí)驗(yàn),本文證明了 Graph2Seq 模型可以被有效地用于從圖到序列的任務(wù)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2358
源碼鏈接
https://github.com/beckdaniel/acl2018_graph2seq
@paperweekly 推薦
#Word Embeddings
本文是 Infinia ML Research、杜克大學(xué)和騰訊 AI Lab 發(fā)表于 NIPS 2018 的工作。論文基于 Wasserstein 距離和 Distillation 機(jī)制提出了一個(gè)全新思路,通過(guò)聯(lián)合訓(xùn)練基于歐式距離的詞向量和基于 Wasserstein 距離的主題模型,大幅提升了詞向量的語(yǔ)義準(zhǔn)確度。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2411
@paperweekly 推薦
#Relation Extraction
本文是根特大學(xué)發(fā)表于 EMNLP 2018 的工作,論文提出了一個(gè)能同時(shí)執(zhí)行實(shí)體識(shí)別和關(guān)系抽取任務(wù)的 multi-head selection 聯(lián)合模型。實(shí)驗(yàn)證明本文模型在大多數(shù)數(shù)據(jù)集上,可以在不依賴(lài)其他 NLP 工具、且不使用人工設(shè)置特征的情況下,同步解決多關(guān)系問(wèn)題。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2403
源碼鏈接
https://github.com/bekou/multihead_joint_entity_relation_extraction
@hsu 推薦
#Semantic Segmentation
本文是 Google 發(fā)表于 NIPS 2018 的工作,論文首次提出了一個(gè)基于元學(xué)習(xí)的語(yǔ)義分割模型,可避免調(diào)參時(shí)過(guò)于玄學(xué)、沒(méi)有規(guī)律性的特點(diǎn),受NAS啟發(fā)設(shè)計(jì)基于搜索空間的語(yǔ)義分割網(wǎng)絡(luò)模型。
此外,論文還提出了基于 Dense Prediction Cell (DPC) 構(gòu)建的遞歸搜索空間,對(duì)多尺度上下文信息編碼,實(shí)現(xiàn)語(yǔ)義分割任務(wù)。作者采用基于隨機(jī)搜索的搜索策略來(lái)找到最優(yōu)的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)配置。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2404
源碼鏈接
https://github.com/tensorflow/models/tree/master/research/deeplab
@Kralkatorrik 推薦
#Face Recognition
人證比對(duì)是人臉識(shí)別的一個(gè)重要應(yīng)用場(chǎng)景,在主流的人臉識(shí)別研究中,通常是研究如何獲取更好的人臉表征。本文提出了一種叫做 DocFace 的方法,通過(guò)遷移學(xué)習(xí),將處于不同 domain 的證件照和生活照樣本映射到同一個(gè) domain 中。
具體流程如下:
1. 使用 AM-Softmax 在清洗過(guò)的 MS-Celeb-1M 數(shù)據(jù)集上訓(xùn)練一個(gè)基礎(chǔ)網(wǎng)絡(luò) F;
2. 從這個(gè)網(wǎng)絡(luò)開(kāi)始同時(shí)訓(xùn)練兩個(gè)網(wǎng)絡(luò) (G,H) 來(lái)適應(yīng)證件照和生活照,這個(gè)過(guò)程使用作者提出的 MPS loss 損失函數(shù)。
最終模型在私有 ID-Selfie 數(shù)據(jù)集上相比 basenetwork 能獲得 30% 以上的提升(FAR@0.001)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2399
源碼鏈接
https://github.com/seasonSH/DocFace
@zmaker 推薦
#Convolutional Neural Network
本文是上海交大和杜克大學(xué)發(fā)表于 ECCV 2018 的工作,論文提出了一種基于 Quaternion 的 CNN——QCNN。QCNN 將圖像的 RGB 通道轉(zhuǎn)換到 Quaternion 數(shù)域進(jìn)行討論,并由此給出了 quaternion convolution layers 和 quaternion fully-connected layers 等結(jié)構(gòu)。文章從"微觀"上進(jìn)行改進(jìn),提出了新的卷積神經(jīng)網(wǎng)絡(luò),在 high-level vision task 和 low-level vision task 都取得了不錯(cuò)的效果。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2392
@Kralkatorrik 推薦
#Face Recognition
本文是商湯科技、UCSD 和南洋理工大學(xué)發(fā)表于 ECCV 2018 的工作。論文對(duì)于現(xiàn)有人臉數(shù)據(jù)集中的標(biāo)簽噪聲問(wèn)題進(jìn)行了深入研究,對(duì) MegaFace 和 MS-Celeb-1M 數(shù)據(jù)集中的噪聲特性和來(lái)源做了全面的分析,發(fā)現(xiàn)干凈子集對(duì)于提高人臉識(shí)別精度效果顯著。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2384
數(shù)據(jù)集鏈接
https://github.com/fwang91/IMDb-Face
@Fiersies 推薦
#Scene Understanding
本文是北京大學(xué)、MIT、字節(jié)跳動(dòng)和曠視科技發(fā)表于 ECCV 2018 的工作,論文提出了名為統(tǒng)一感知解析 UPP 的新任務(wù),要求機(jī)器視覺(jué)系統(tǒng)從一張圖像中識(shí)別出盡可能多的視覺(jué)概念;又提出多任務(wù)框架 UPerNet ,開(kāi)發(fā)訓(xùn)練策略以學(xué)習(xí)混雜標(biāo)注。UPP 基準(zhǔn)測(cè)試結(jié)果表明,UPerNet 可有效分割大量的圖像概念。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2379
源碼鏈接
https://github.com/CSAILVision/unifiedparsing
@xuzhou 推薦
#Wavelet Transform
本文是北京航空航天大學(xué)發(fā)表于 KDD 2018 的文章,論文提出將小波變換和深度神經(jīng)網(wǎng)絡(luò)進(jìn)行完美結(jié)合,克服了融合的損失,對(duì)時(shí)間序列數(shù)據(jù)的分析起到了很好的啟發(fā)性研究。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2373
源碼鏈接
https://github.com/AHoke/Multilevel_Wavelet_Decomposition_Network_Pytorch
@paperweekly 推薦
#Session-based Recommendation
本文是中科大和京東發(fā)表于 SIGKDD 2018 的工作。現(xiàn)有的序列化推薦方法往往僅對(duì)消費(fèi)者的短期行為特征進(jìn)行分析,沒(méi)有充分考慮到用戶的長(zhǎng)期偏好以及偏好的動(dòng)態(tài)變化過(guò)程。本文基于用戶行為區(qū)別,提出了一個(gè)針對(duì)商品推薦任務(wù)的全新 BINN(Behavior-Intensive Neural Network)模型,該模型包括一個(gè) Item Embedding 和兩個(gè) RNN。Item Embedding 對(duì)用戶產(chǎn)生的 item 序列運(yùn)用類(lèi) Skip-gram 的模型,兩個(gè) RNN 分別用于捕獲用戶當(dāng)前偏好和歷史偏好。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2414
@zhangjun 推薦
#Bayesian Optimization
本文來(lái)自 NIPS 2017 BayesOpt Workshop,論文提出了一種基于遷移學(xué)習(xí)的初值設(shè)定方法,用來(lái)提升貝葉斯優(yōu)化搜索最優(yōu)超參數(shù)的效率。文中通過(guò)學(xué)習(xí)一個(gè)基于 DNN 的距離函數(shù),來(lái)找到最相似的 K 個(gè) dataset,將這些 dataset 的最優(yōu)超參數(shù)定為 target 任務(wù)的幾個(gè)初值,開(kāi)始迭代尋優(yōu)。
實(shí)驗(yàn)結(jié)果表明,高質(zhì)量的初值將會(huì)讓優(yōu)化收斂更快。但用一個(gè)非常復(fù)雜的深度學(xué)習(xí)網(wǎng)絡(luò)來(lái)計(jì)算相似度有一點(diǎn)殺雞焉用牛刀的感覺(jué),深度學(xué)習(xí)網(wǎng)絡(luò)會(huì)帶來(lái)更多的超參數(shù),形成了死循環(huán)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2367
@zhangjun 推薦
#Neural Architecture Search
本文來(lái)自密西根州立大學(xué),論文提出了一種多目標(biāo)神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索框架 NSGA-Net,整個(gè)算法框架基于進(jìn)化算法思路,通過(guò) crossover 和 mutation 進(jìn)行 exploration,然后基于已有的知識(shí),學(xué)習(xí)一個(gè)基于貝葉斯優(yōu)化模型(BOA),用于 exploitation。此處的 BOA 和自動(dòng)調(diào)參中常見(jiàn)的貝葉斯優(yōu)化不同,而是一種 EDA 算法,用貝葉斯網(wǎng)絡(luò)作為概率模型。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2393
源碼鏈接
https://github.com/ianwhale/nsga-net
@paperweekly 推薦
#Recommender System
本文是北京大學(xué)發(fā)表于 WSDM 2018 的工作。基于異構(gòu)信息網(wǎng)絡(luò)(HIN)的推薦由于其在模擬協(xié)同過(guò)濾、內(nèi)容過(guò)濾、上下文感知推薦等方面的能力而受到廣泛關(guān)注。現(xiàn)有各類(lèi)方法的關(guān)鍵在于如何正確設(shè)置異構(gòu)信息網(wǎng)絡(luò)中各種 link 的權(quán)重。?
本文提出了一種基于貝葉斯個(gè)性化排序(BPR)的機(jī)器學(xué)習(xí)方法——HeteLearn,來(lái)學(xué)習(xí)異構(gòu)信息網(wǎng)絡(luò)中的 link 權(quán)重,并將其應(yīng)用于個(gè)性化推薦任務(wù)。作者在個(gè)性化推薦和標(biāo)簽推薦任務(wù)上對(duì)本文方法進(jìn)行了測(cè)試,實(shí)驗(yàn)表明,本文方法表現(xiàn)明顯優(yōu)于傳統(tǒng)的協(xié)同過(guò)濾推薦算法和當(dāng)前最先進(jìn)的基于 HIN 的推薦方法。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2413
@deanli?推薦
#Graph Convolution Neural Network
本文是斯坦福大學(xué)發(fā)表于 KDD 2018 的工作。論文提出了一種圖卷積網(wǎng)絡(luò)層次化的池化方法,“圖卷積網(wǎng)絡(luò)+池化”可以將 graph 表示成低維向量,從而簡(jiǎn)化 graph 之間的計(jì)算。本文方法與現(xiàn)有 Graph Pooling 方法不同的是,作者將 graph 中 vertex 的層次關(guān)系考慮了進(jìn)去。?
如何獲取 vertex 的層次關(guān)系以及如何將 l 層的 n 個(gè) vertex 映射到 l+1 層的 m 個(gè) vertex 是研究的重點(diǎn)之一。本文通過(guò) GCN 學(xué)習(xí)得到 assign matrix S ∈ R^(n*m),assign matrix 中元素代表 l 層中 vertex 與 l+1 層中 m 個(gè) vertex 的關(guān)聯(lián)強(qiáng)度。通過(guò) S 對(duì) l 層的 adjacency matrix 和vertex matrix 做變換得到 l+1 層的兩個(gè)矩陣,作為 GCN 的輸入。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2406
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙
?禮物領(lǐng)取方式?
推薦人請(qǐng)根據(jù)論文詳情頁(yè)底部留言
添加小助手領(lǐng)取禮物
想要贏取以上周邊好禮?
點(diǎn)擊閱讀原文即刻推薦論文吧!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
??15篇最新AI論文了解一下 | 本周值得讀
??收下這12篇最新論文,煉丹不愁沒(méi)靈感
??暑假?zèng)]人帶怎么辦?還有我們?yōu)槟阃扑]論文
??本周份AI論文推薦新鮮出爐!真的很skr了~
??想了解推薦系統(tǒng)最新進(jìn)展?請(qǐng)收好這些篇論文
正經(jīng)煉丹師如何完美安排國(guó)慶長(zhǎng)假?
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢??答案就是:你不認(rèn)識(shí)的人。
總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類(lèi)優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。
??來(lái)稿標(biāo)準(zhǔn):
? 稿件確系個(gè)人原創(chuàng)作品,來(lái)稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請(qǐng)?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會(huì)添加“原創(chuàng)”標(biāo)志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請(qǐng)單獨(dú)在附件中發(fā)送?
? 請(qǐng)留下即時(shí)聯(lián)系方式(微信或手機(jī)),以便我們?cè)诰庉嫲l(fā)布時(shí)和作者溝通
?
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專(zhuān)欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 獲取更多論文推薦
與50位技術(shù)專(zhuān)家面對(duì)面20年技術(shù)見(jiàn)證,附贈(zèng)技術(shù)全景圖總結(jié)
以上是生活随笔為你收集整理的又为写作思路熬到秃头?这16篇最新论文打包送你的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 岗位推荐 | 百度招聘计算机视觉、深度学
- 下一篇: 双十一刷名企项目?学霸果然不一样