感觉灵感被掏空?你需要这 9 篇论文来补一补 | PaperDaily #05
在碎片化閱讀充斥眼球的時(shí)代,越來(lái)越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第?5?篇文章[ 自然語(yǔ)言處理 ] What does Attention in Neural Machine Translation Pay Attention to?
@paperweekly 推薦
#Attention Model
本文對(duì) attention 進(jìn)行了詳細(xì)研究,對(duì)比了 NMT 中的 alignment,給出了很多有意思的結(jié)論。
Flexible End-to-End Dialogue System for Knowledge Grounded Conversation@lukepan 推薦
#Chatbot
該論?所引?的知識(shí)是以 tuple 的形式儲(chǔ)存在 KB 中的。 knowledge 的引??式如下:Candidate Facts Retriever 從 input 中提取 entity,然后在 KB 中進(jìn)? query,將通過(guò) relation 尋找到的 objects 和 subjects 作為 Candidate Facts 存儲(chǔ)為?個(gè)集合。?
在 Reply Decoding 流程中,為了決定該使?哪些 facts,提出了 dynamic knowledge enquirer,?以根 據(jù) local contexts at various positions within a response 來(lái) rank 并選擇集合中哪些 facts 應(yīng)該被使?。
Program Induction by Rationale Generation : Learning to Solve and Explain Algebraic Word Problems
@RamonYeung 推薦
#Question Answering
DeepMind 和牛津大學(xué)共同打造的代數(shù)問(wèn)題數(shù)據(jù)集 AQuA(AQuA = Algebra Question Answering)。
@corenel 推薦
#Object Detection
新出的一篇視頻內(nèi)目標(biāo)檢測(cè)的文章,在逐幀的 RoI Pooling 上增加了幀間的 RoI Tracking(regresses box transformations (translation, scale, aspect ratio) across frames),結(jié)構(gòu)簡(jiǎn)單,精度不錯(cuò),通過(guò)調(diào)間隔時(shí)間可以調(diào)整處理速度。
GP-GAN: Gender Preserving GAN for Synthesizing Faces from Landmarks@starif 推薦
#Face Synthesis
此文嘗試用 facial landmarks 通過(guò) GAN 來(lái)合成人臉。除了 Adversarial loss,文章使用了 perceptual loss、L1 reconstruction error,特別還設(shè)計(jì)了 gender preserving loss。
性別具有確定性、二元性,是人臉的一個(gè)很特別的屬性,也是對(duì)機(jī)器學(xué)習(xí)來(lái)說(shuō)一個(gè)易用的信息,如何利用這一屬性來(lái)提高人臉的合成效果,文章或許可以給你一個(gè)很好的啟發(fā)。
@993917172 推薦
#Face Reenactment
2017 年,生成對(duì)抗網(wǎng)絡(luò) GAN 廣泛應(yīng)用在超分辨率復(fù)原 SR 等領(lǐng)域,并取得巨大發(fā)展。但是,GAN 的變體 WGAN,CGAN 等方法仍然較少的應(yīng)用于 SR 上。?
本文把超分辨率復(fù)原思想和 WGAN 結(jié)合起來(lái),思路和上面的 SRGAN 有點(diǎn)類似。與之不同,它是用于解決人臉圖像分辨率不足的問(wèn)題。該方法不僅采用基礎(chǔ) GAN(2014)作為基本網(wǎng)絡(luò)框架,還將 WGAN 作為提升 GAN 網(wǎng)絡(luò)學(xué)習(xí)能力的重要工具。?
總的來(lái)說(shuō),該方法使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像復(fù)原,簡(jiǎn)單高效,結(jié)合 GAN 網(wǎng)絡(luò),只要較少的訓(xùn)練樣本就可以讓生成圖像非常逼真,廣大學(xué)者可以嘗試在更多圖像對(duì)監(jiān)控場(chǎng)景下應(yīng)用人臉圖像的思路,發(fā)揮生成對(duì)抗網(wǎng)絡(luò)的威力。
[ 機(jī)器學(xué)習(xí) ]
Mixed Precision Training@機(jī)器之心 推薦
#CTC
減少模型半數(shù)內(nèi)存用量:百度 & 英偉達(dá)提出混合精度訓(xùn)練法。
@Nevertiree 推薦
#Deep Reinforcement Learning
深度強(qiáng)化學(xué)習(xí)的最新綜述,發(fā)表于 2017 下半年。本文是 Reddit 推薦的熱文。
@paperweekly 推薦
#Molecular Machine Learning
一個(gè)分子機(jī)器學(xué)習(xí) benchmark,最喜歡看到這種將機(jī)器學(xué)習(xí)應(yīng)用到傳統(tǒng)學(xué)科領(lǐng)域了。
本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語(yǔ)言處理、計(jì)算機(jī)視覺、人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點(diǎn)擊「閱讀原文」即刻加入社區(qū)!
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 查看更多優(yōu)質(zhì)論文
總結(jié)
以上是生活随笔為你收集整理的感觉灵感被掏空?你需要这 9 篇论文来补一补 | PaperDaily #05的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: PaperWeekly社区 | 知识图谱
- 下一篇: 直播预告 | 东南大学周张泉:基于知识图