不知道读什么好?这 16 篇最新论文,帮你轻松积攒知识点
在碎片化閱讀充斥眼球的時代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。
在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第 118?篇文章@lvxin 推薦
#Knowledge Representation
本文是清華大學(xué)發(fā)表于 EMNLP 2018 的工作。論文提出了一種新的區(qū)分概念和實例的知識圖譜表示學(xué)習(xí)方法,將上下位關(guān)系與普通的關(guān)系做了區(qū)分,可以很好的解決上下位關(guān)系的傳遞性問題,并且能夠表示概念在空間中的層次與包含關(guān)系。?
知識圖譜的表示學(xué)習(xí)最近幾年被廣泛研究,表示學(xué)習(xí)的結(jié)果對知識圖譜補全和信息抽取都有很大幫助。傳統(tǒng)的表示學(xué)習(xí)方法沒能區(qū)分概念(concept)和實例(instance)之間的區(qū)別,而是多數(shù)統(tǒng)一看作實體(entity),而概念顯然和實例不是同一個層次的,統(tǒng)一的表示是有欠缺的。更重要的是,之前的方法多數(shù)無法解決上下位關(guān)系傳遞性的問題,這是不區(qū)分概念和實例表示的弊端。?
本文創(chuàng)造性地將概念表示為空間中的一個球體,實例為空間中的點,通過點和球體的空間包含關(guān)系和球體間的包含關(guān)系來表示上下位關(guān)系,這種表示可以很自然地解決上下位關(guān)系傳遞性的問題。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2484
源碼鏈接
https://github.com/davidlvxin/TransC
@paperweekly 推薦
#Named Entity Recognition
本文是 UIUC、USC 和觸寶科技發(fā)表于 EMNLP 2018 的工作,論文提出了一個無需人工標(biāo)注就可以自動標(biāo)記數(shù)據(jù)并訓(xùn)練 NER 的模型——AutoNER。實驗表明,AutoNER 訓(xùn)練的模型在 3 個數(shù)據(jù)集上均與 supervised benchmark 效果相當(dāng),并且在所有僅采用 dictionary 的方法中,也是效果最好的。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2464
源碼鏈接
https://github.com/shangjingbo1226/AutoNER
@paperweekly 推薦
#Knowledge Graph
本文是 Salesforce Research 發(fā)表于 EMNLP 2018 的工作,論文主要關(guān)注的是基于強化學(xué)習(xí)的知識圖譜問答任務(wù)。針對該任務(wù),作者提出了兩種全新機制:1. Reward Shaping:借助預(yù)訓(xùn)練的知識圖譜嵌入模型對任意三元組設(shè)置預(yù)期獎勵,從而有效避免訓(xùn)練時出現(xiàn)的虛假負(fù)例影響測試結(jié)果;2. Action Dropout:通過探索不同的路徑,有效避免虛假路徑誤導(dǎo)模型。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2410
源碼鏈接
https://github.com/salesforce/MultiHopKG
@paperweekly 推薦
#Abstractive Summarization
本文是北京大學(xué)和騰訊 AI Lab 發(fā)表于 EMNLP 2018 的工作。摘要生成任務(wù)通常都是基于單輪抽取,本文創(chuàng)新地提出了一種迭代式多輪摘要抽取模型,并且引入了一種選擇性讀取機制,可以更準(zhǔn)確地決定哪些句子表示需要更新。實驗表明,本文模型在 CNN/DailyMail 和 DUC2002 數(shù)據(jù)集上均取得了 SOTA 效果。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2448
源碼鏈接
https://github.com/yingtaomj/Iterative-Document-Representation-Learning-Towards-Summarization-with-Polishing
@yangchengTHU 推薦
#Chinese Poetry Generation
本文是清華大學(xué)發(fā)表于 EMNLP 2018 的工作。傳統(tǒng)的中國古詩生成模型普遍采用機器翻譯中的 seq2seq 模型,用上一句的詩句作為輸入,預(yù)測生成下一句作為輸出。但是機器翻譯任務(wù)和古詩生成任務(wù)有很大的不同:機器翻譯任務(wù)中輸入與輸出的一一對應(yīng)關(guān)系比較強,如中英翻譯中中文出現(xiàn)了“蘋果”一詞則英文翻譯中就會出現(xiàn)“apple”;而詩歌生成任務(wù)中卻是一對多的情況,即便作為輸入的上句提到了“月”這個意象,下句也可能有風(fēng)格迥異的完全不同的輸出。如果使用機器翻譯模型訓(xùn)練詩歌語料,則會有很大概率會生成例如“不知何處去”這種非常普遍但沒有什么實質(zhì)含義的句子,很難學(xué)習(xí)到不同風(fēng)格的輸出。?
本文提出了一種對于同一輸入可以產(chǎn)生多個輸出的生成模型,同時保證不同的輸出之間有較大的區(qū)分性。另一方面,因為語料庫中對于詩歌風(fēng)格暫時沒有專家標(biāo)注,我們的模型利用互信息作為約束正則項,可以實現(xiàn)完全無監(jiān)督的風(fēng)格生成。人工評測結(jié)果表明,我們的模型生成的各種風(fēng)格都是可識別的,并且其他指標(biāo)也優(yōu)于基線模型。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2500
@paperweekly 推薦
#Sequence Labelling
本文是墨爾本大學(xué)和京東發(fā)表于 EMNLP 2018 的工作,論文針對端到端模型提出了一種全新利用特征工程的方法,將 Auto-Encoder 嵌入端到端模型中。在訓(xùn)練階段,在手動提取特征之后,將其輸入到深度學(xué)習(xí) Encoder 中,隨后在輸出端重建特征并計算損失函數(shù)做反向傳播。在預(yù)測階段,只將手動提取特征輸入到 Encoder 中,但不重建特征。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2468
源碼鏈接
https://github.com/minghao-wu/CRF-AE
@ttmy5 推薦
#Object Detection
本文總結(jié)了最近 5 年來計算機視覺重要領(lǐng)域——目標(biāo)識別的重要進(jìn)展。內(nèi)容非常詳細(xì),是目標(biāo)識別領(lǐng)域這幾年來少見的綜述,文章指出了未來值得研究的幾個方向,對研究者有很大的指導(dǎo)意義。該文章也已提交 IJCV 候?qū)彙?/span>
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2461
@darksoul 推薦
#Convolutional Neural Networks
本文是 Momenta 和牛津大學(xué)發(fā)表于 NIPS 2018 的工作,論文來自原 SENet 作者。本文使用了一種新的 attention 機制,對 feature map 上每一個點單獨學(xué)習(xí)weight。
論文思路和 CBAM 相似,不同之處在于學(xué)習(xí) weight 的方式,文章使用了 g 和 e 兩個主要模塊,g 部分將原 feature 尺度精煉縮小,e 將精煉的 feature 進(jìn)行插值還原到原始尺度,使用 Hadamard Product 的方式將原始 feature 進(jìn)行重構(gòu)(本質(zhì)上是將原始 feature 上的高響應(yīng)部分進(jìn)行放大,也就是文章說的 excite 過程)。
SENet 本質(zhì)上是對每個 channel 進(jìn)行 weight,本文提出的 GENet 則是從本質(zhì)上對 feature 每個點進(jìn)行 weight。從包含關(guān)系上講,SENet 是 GENet 的一種特例。論文想法簡單,有種大道至簡的感覺。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2471
源碼鏈接
https://github.com/hujie-frank/GENet
@Kralkatorrik 推薦
#Face Recognition
本文是 L2-Softmax 作者對之前工作的擴展,作者將 L2-Softmax 更名為 Crystal Loss,分析了在視頻人臉驗證的流程中序列特征取平均值,由于不同幀之間圖像質(zhì)量不同,會導(dǎo)致這樣的特征表達(dá)是非最優(yōu)的。于是作者引入了 Quality Pooling 概念,通過檢測得到的 bbox score 來對序列特征做 rescale,最終能夠在 LFW、IJB 等數(shù)據(jù)集上達(dá)到 SOTA 效果。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2463
@paperweekly 推薦
#Person Re-identification
本文是 Argo AI 和拉瓦爾大學(xué)發(fā)表于 ECCV 2018 的工作,論文提出了一個全新合成數(shù)據(jù)集 SyRI dataset,該數(shù)據(jù)集通過改變 HDR 參數(shù)等方法,使得一個行人 ID 可擁有一百多個環(huán)境下圖像數(shù)據(jù)。此外,為了在未見過的真實場景中實現(xiàn)更好的域適應(yīng)效果,論文基于這個合成數(shù)據(jù)集提出了一種新的方法,這個方法性能超越了目前最先進(jìn)的半監(jiān)督和無監(jiān)督的方法。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2363
@zhangjun 推薦
#Hyperparameter Optimization
本文來自 AAAI 2019,針對深度神經(jīng)網(wǎng)絡(luò)超參優(yōu)化時間成本過高的問題,論文提出了一種將多個代理模型進(jìn)行集成的方法,并在 CNN、RNN、VAE 等 DNN 模型中進(jìn)行了效果驗證。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2478
@jindongwang 推薦
#Domain Generalization
本文是斯坦福大學(xué)發(fā)表于 NIPS 2018 的工作,論文研究的問題是比域自適應(yīng)(Domain Adaptation)更前沿的一個方向——Domain Generalization。
在遷移學(xué)習(xí)領(lǐng)域,數(shù)據(jù)主要分為源域和目標(biāo)域,源域的數(shù)據(jù)和標(biāo)簽是可獲得的,而目標(biāo)域的數(shù)據(jù)標(biāo)簽獲得成本高,現(xiàn)有的一些遷移學(xué)習(xí)方法主要是在做源域和目標(biāo)域的數(shù)據(jù)特征分布的對齊對源域用監(jiān)督訓(xùn)練,而對于目標(biāo)域任務(wù)應(yīng)用無監(jiān)督學(xué)習(xí)。但對于有些目標(biāo)任務(wù),目標(biāo)領(lǐng)域的數(shù)據(jù)可能非常缺失或者獲得成本非常高,以至于只有很少的目標(biāo)域數(shù)據(jù),甚至沒有目標(biāo)域數(shù)據(jù)。?
為了應(yīng)對這種目標(biāo)領(lǐng)域數(shù)據(jù)缺失或收集成本高的挑戰(zhàn),作者提出了用于 Domain Generalization 的對抗增強遷移方法。該方法的大致思路介紹如下:這是一種無監(jiān)督的對抗數(shù)據(jù)增強遷移學(xué)習(xí)方法,在該方法中,作者利用了樣本級和特征級的表征,以及語義損失和循環(huán)一致性,使得模型在樣本層面和特征層面都能進(jìn)行適應(yīng),在利用任務(wù)損失的同時能保持循環(huán)一致性,而且無需對齊的配對。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2481
源碼鏈接
https://github.com/ricvolpi/generalize-unseen-domains
@paperweekly 推薦
#Recommender System
本文是加州大學(xué)圣地亞哥分校發(fā)表于 CIKM 2018 的工作,論文借助混合專家模型(mixtures-of-experts)和知識圖譜嵌入思想提出了一種全新框架,巧妙利用用戶序列行為中相鄰物品間的關(guān)系來解釋用戶在特定時間點的行為原因,進(jìn)而基于用戶的近期行為對其下一次行為進(jìn)行預(yù)測。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2458
源碼鏈接
https://github.com/kang205/MoHR
@xuzhou 推薦
#Time Series Analysis
本文是奧爾堡大學(xué)發(fā)表于 CIKM 2018 的工作。為了確保準(zhǔn)確預(yù)測時間序列,論文首次提出結(jié)合 CNN 和 RNN 來分析和提取時間序列特征并進(jìn)行預(yù)測,將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用到時間序列分析,提供了啟發(fā)性的研究。
具體來說,第一個模型在每一個時間序列上進(jìn)行 CNN,組合卷積的特征并在卷進(jìn)中的前幾個特征上使用 RNN 進(jìn)行預(yù)測。第二個模型在每一個 CNN 上添加了自動編碼器,從而模型轉(zhuǎn)換成了多任務(wù)學(xué)習(xí)模型,并且 juice 更加準(zhǔn)確。兩個真實數(shù)據(jù)集的實驗結(jié)果顯示了兩個模型的有效性。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2509
@xinqin 推薦
#Transfer Learning
本文是清華大學(xué)和騰訊 AI Lab 發(fā)表于 AAAI 2019 的工作。當(dāng)前主流用于機器人行動規(guī)劃的方法主要依賴于兩個要求:精確相關(guān)的專家示例或目標(biāo)任務(wù)的顯式編碼代價函數(shù),但在實踐中獲取并不方便。模仿學(xué)習(xí)目前面臨的一個問題是要求提供的專家示例與機器人期望執(zhí)行的動作要高度一致。然而,這一要求可能并不總是成立,因為收集準(zhǔn)確相關(guān)的演示是資源消耗的。
本文通過將專家偏好作為指導(dǎo)放松了這兩個強條件,開發(fā)了一種新的任務(wù)遷移框架。具體地,通過調(diào)整兩步完成:首先,讓專家應(yīng)用預(yù)先定義的偏好規(guī)則,為目標(biāo)任務(wù)選擇相關(guān)專家論證。其次,在選擇結(jié)果的基礎(chǔ)上,通過增強對抗式 MaxEnt IRL,同時學(xué)習(xí)目標(biāo)成本函數(shù)和軌跡分布,并通過學(xué)習(xí)目標(biāo)分布生成更多軌跡,用于下一個偏好選擇。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2474
@paperweekly?推薦
#Social Recommendation
本文是重慶大學(xué)、亞利桑那州立大學(xué)和昆士蘭大學(xué)發(fā)表于 CIKM 2018 的工作。論文提出了一種基于潛在好友關(guān)系和購買關(guān)系構(gòu)建異質(zhì)信息網(wǎng)絡(luò)的方法,針對不同用戶,采用動態(tài)采樣方式生成用戶的潛在好友。實驗表明,本文方法在 Last.fm、豆瓣和 Epinions 數(shù)據(jù)集上,均達(dá)到了當(dāng)前最優(yōu)效果。本文實驗豐富、數(shù)據(jù)真實、相關(guān)代碼完善,在社會化推薦方面十分有借鑒和參考意義。
▲?論文模型:點擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2469
源碼鏈接
https://github.com/Coder-Yu/RecQ
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙
?禮物領(lǐng)取方式?
推薦人請根據(jù)論文詳情頁底部留言
添加小助手領(lǐng)取禮物
想要贏取以上周邊好禮?
點擊閱讀原文即刻推薦論文吧!
點擊以下標(biāo)題查看往期推薦:?
??又為寫作思路熬到禿頭?16篇最新論文打包送你
??收下這 16 篇最新論文,周會基本不用愁
??暑假沒人帶怎么辦?還有我們?yōu)槟阃扑]論文
??本周份AI論文推薦新鮮出爐!真的很skr了~
??想了解推薦系統(tǒng)最新進(jìn)展?請收好這些篇論文
正經(jīng)煉丹師如何完美安排國慶長假?
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢??答案就是:你不認(rèn)識的人。
總有一些你不認(rèn)識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個,讓知識真正流動起來。
??來稿標(biāo)準(zhǔn):
? 稿件確系個人原創(chuàng)作品,來稿需注明作者個人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請在投稿時提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會添加“原創(chuàng)”標(biāo)志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請單獨在附件中發(fā)送?
? 請留下即時聯(lián)系方式(微信或手機),以便我們在編輯發(fā)布時和作者溝通
?
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁搜索「PaperWeekly」
點擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點擊 |?閱讀原文?| 獲取更多論文推薦
總結(jié)
以上是生活随笔為你收集整理的不知道读什么好?这 16 篇最新论文,帮你轻松积攒知识点的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 基于深度迁移学习进行时间序列分类
- 下一篇: 实录分享 | 计算未来轻沙龙:大规模数据