每周论文清单:知识图谱,文本匹配,图像翻译,视频对象分割
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背后的探索和思考。
在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點擊本文底部的「閱讀原文」即刻加入社區,查看更多最新論文推薦。
這是 PaperDaily 的第?31?篇文章[ 自然語言處理 ]
@jerryshi 推薦
#Knowledge Graph
本文對當下流行的 Knowledge Graph Eembedding 進行匯總,主要介紹了兩大類,Translational Distance Models 和 Semantic Matching Models,簡要敘述了每中方式下的算法。最后又給出了 KG Embedding 的一些應用,包括 KG 內部知識補全及外部的關系抽取、QA、推薦等。
Parallel WaveNet: Fast High-Fidelity Speech Synthesis@wuhecong 推薦
#Deep Learning
DeepmMind 17 年 11 月份的論文,wavenet 的改良版本,實現了并行文本轉語音。可以和百度的 Deep Voice 3 對比一下。
Deconvolutional Latent-Variable Model for Text Sequence Matching
@zhangjianhai 推薦
#Sentence Matching
利用 Convolution encoder - Deconvolution decoder 學習句子的語義表示,將 cnn-deconv 框架用于文本匹配任務中,如 Text Entailment、Paraphrase Identification 任務中,generation 和 discriminative 共同訓練,提升特定任務的效果。
該論文方法優勢是可以利用 unlabeled 數據幫助學習句子表示,當數據不足時非常有效,隨著標注數據的增加,優勢逐漸減小。
Exploring the Effectiveness of Convolutional Neural Networks for Answer Selection in End-to-End Question Answering@longquan 推薦
#QA System
本文嘗試探索了從整個端到端問答系統的流程的角度去衡量卷積神經網絡對于答案選擇任務的有效性。使用的數據集是標準的 TrecQA 數據集。
Attention-based LSTM for Aspect-level Sentiment Classification@applenob 推薦
#Sentiment Classification
使用基于 Attention 的 LSTM 解決細粒度的情感分析問題,在 SemEval 2014 上取得 state-of-art 的結果。
Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks@Aidon 推薦
#Neural Networks
文章提出一種加速 DNNs 的新方法(WAE: wavelet-like auto-encoder)來克服現有方法中存在的一個主要問題:如何保證網絡加速而又不損失網絡性能。
MAE 借助小波的思想,在 encoding 階段利用 CNNs 分別提取圖像的低頻分量和高頻分量,在 decoding 階段利用這兩個分量恢復出原始圖像。
訓練好 MAE 之后,可以用于提取圖像的低頻分量和高頻分量,比如在圖像分類任務中,將低頻分量輸入到標準的分類 DNNs(如 VGG-16,ResNet)中,然后與高頻分量融合后一起用于分類。
這里提高效率的關鍵在于,相比于原始圖像,提取的低頻分量和高頻分量都是低分率(原始圖像的 1/4)的。
Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning@snowwalkerj 推薦
#Face Recognition
在不直接接觸模型和訓練樣本的前提下,只使用極少量的“污染樣本”來迷惑模型,達到攻擊(偽裝)指定類別的目的。攻擊者可以通過佩戴特定的裝飾來達到把自己偽裝成某個特定目標的目的。
@corenel 推薦
#Unsupervised Learning
本文來自 Facebook AI Research,提出了一種利用單一模型來 ensemle 不同 encoded features 來進行 self=training 的方法,就結果上來說很不錯,值得一看。
@duinodu 推薦
#Image-to-image Translation
在很多 image-to-image 問題中,one-to-many 是大部分情況,而一般方法比如 pix2pix,僅僅能產生 one-to-one 的結果,但似乎 one-to-many 更符合常理。比如一張灰色的圖,對應的彩色圖片應該有很多種方式,不僅僅是一種。
困難在于,GAN 總是會讓 G 產生某幾種固定的模式輸出,而如果簡單地在輸入加隨機噪聲,G 會在 D 的判別下,忽略隨機噪聲的作用,還是會有 mode collapse 問題。
文章提出一種 bicycle 的方式,顯式地對隱含變量 z 進行表示,處理 one-to-many 中的 mode collapse 問題。
Video Object Segmentation with Re-identification@chenhong 推薦
#Video Object Segmentation
傳統的視頻分割方法依賴于生成掩膜的時間連續性,但是無法處理目標丟失或目較大的位移等情況。
論文為了克服這些問題,提出視頻對象分割與重新識別( Video Object Segmentation with Re-identification,VSReID),包括掩碼生成模塊和 ReID 模塊(Person re-identification,ReID,既給定一個監控行人圖像,跨設備檢索行人的圖像)。
前者通過 flow warping 生成初始化概率圖,后者自適應匹配檢索丟失的目標實體。通過通過兩個模塊的迭代應用,本文的模型在 DAVIS-2017 取得冠軍,驗證了算法的性能。
本文由 AI 學術社區 PaperWeekly 精選推薦,社區目前已覆蓋自然語言處理、計算機視覺、人工智能、機器學習、數據挖掘和信息檢索等研究方向,點擊「閱讀原文」即刻加入社區!
我是彩蛋?
?解鎖新功能:熱門職位推薦!
PaperWeekly小程序升級啦
今日arXiv√猜你喜歡√熱門職位√
找全職找實習都不是問題
?
?解鎖方式?
1. 識別下方二維碼打開小程序
2. 用PaperWeekly社區賬號進行登陸
3. 登陸后即可解鎖所有功能
?職位發布?
請添加小助手微信(pwbot01)進行咨詢
?
長按識別二維碼,使用小程序
*點擊閱讀原文即可注冊
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的每周论文清单:知识图谱,文本匹配,图像翻译,视频对象分割的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: GAN做图像翻译的一点总结
- 下一篇: 融合 MF 和 RNN 的电影推荐系统