日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

本周最热 AI 论文大集合,还不快一键收藏?

發(fā)布時間:2024/10/8 49 豆豆
生活随笔 收集整理的這篇文章主要介紹了 本周最热 AI 论文大集合,还不快一键收藏? 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.



在碎片化閱讀充斥眼球的時代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。


在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。


點擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。

這是 PaperDaily 的第 97?篇文章


Compositional Attention Networks for Machine Reasoning

@NoaRicky 推薦

#Machine Reasoning

本文是斯坦福大學(xué)發(fā)表于 ICLR 2018 的工作,論文解決了樹狀結(jié)構(gòu)網(wǎng)絡(luò)在機器閱讀、機器推理問題中雖有良好表現(xiàn),但模型訓(xùn)練時間過長的問題,同時幸運的是在精確度方面勝過了以往所有模型。它其中一名作者是斯坦福 CS224n 授課老師 Manning 教授,該文章模型已被 Stanford NLP 團隊實現(xiàn)。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2207

源碼鏈接

https://github.com/stanfordnlp/mac-network


Know What You Don't Know: Unanswerable Questions for SQuAD

@guohao916 推薦

#Machine Reading Comprehension

本文是斯坦福大學(xué)發(fā)表于 ACL 2018 的工作,論文在原來的 SQuAD(SQuAD 1.1)的十萬個問題 - 答案對的基礎(chǔ)上,SQuAD 2.0 中新增了超過五萬個新增的、由人類眾包者對抗性地設(shè)計的無法回答的問題。執(zhí)行 SQuAD 2.0 閱讀理解任務(wù)的模型不僅要能夠在問題可回答時給出答案,還要判斷哪些問題是閱讀文本中沒有材料支持的,并拒絕回答這些問題。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2180

源碼鏈接

https://bit.ly/2rDHBgY


Learning-to-Ask: Knowledge Acquisition via 20 Questions

@yihongchen 推薦

#Knowledge Discovery

本文是清華大學(xué)、微軟和阿里巴巴聯(lián)合發(fā)表于 KDD 2018 的工作。為機器賦能知識是讓機器具有智能的一種重要手段,通過提問獲取知識是一種常見的方法,但如何保證提問的效率和有效性是一個核心問題,本文針對這些問題提出了一種基于深度強化學(xué)習(xí)和矩陣分解的 Learning-to-Ask 方法,并用貝葉斯方法表示知識來增強魯棒性。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2174



Simple and Effective Multi-Paragraph Reading Comprehension

@guohao916 推薦

#Question Answering

本文將段落級的神經(jīng) QA 模型擴展到篇章級。在訓(xùn)練階段采樣了多個段落,并改造了目標函數(shù)使之產(chǎn)生全局正確的輸出。當(dāng) QA 模型的輸入為篇章時,處理方法可分為兩類:流水線方法首先選擇一個最相關(guān)的段落再預(yù)測答案跨度;基于置信的方法將模型使用在多個段落上返回最高的置信值。基于置信的方法對于段落選擇的錯誤具有強魯棒性,然而這要求模型對每一個段落計算出較精確的置信值。

本文將上述兩個思路相結(jié)合,使流水線方法能夠計算出各個段落更加精確的置信值。首先使用 TF-IDF 選擇用于訓(xùn)練和測試的段落,針對語料的遠程監(jiān)督噪聲較大的問題,將目標函數(shù)定義為所有可能的答案位置的邊緣值;最后通過使用一個共享標準化目標函數(shù),使答案選擇基于篇章中各個段落的比較,有效提高了模型的魯棒性。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2179


源碼鏈接

https://github.com/allenai/document-qa



Towards Human-Machine Cooperation: Self-supervised Sample Mining for Object Detection

@kezewang 推薦

#Object Detection

近年來,隨著互聯(lián)網(wǎng)的快速發(fā)展和計算能力的提升,受益于大規(guī)模訓(xùn)練數(shù)據(jù)的深度學(xué)習(xí)技術(shù)取得了突破性的進步。物體檢測作為計算機視覺領(lǐng)域的一個經(jīng)典任務(wù),檢測精度取得了巨大的提升。以候選區(qū)域為基礎(chǔ)的物體檢測網(wǎng)絡(luò)對一張輸入的圖像提取大量的候選物體區(qū)域,并對這些區(qū)域進行類別標注和位置回歸,提升了物體檢測的識別精度和識別速度。然而,神經(jīng)網(wǎng)絡(luò)的檢測效果極其依賴訓(xùn)練網(wǎng)絡(luò)的標注樣本數(shù)據(jù),因此,如何利用大規(guī)模的未標注或是少量標注的數(shù)據(jù)有效訓(xùn)練網(wǎng)絡(luò),提升其檢測精度是亟待解決的問題。?

為了使用更少的標注數(shù)據(jù)訓(xùn)練出高精度的檢測模型,一般需要解決以下技術(shù)問題:?

1. 在保證模型效果的同時,盡量減少人工樣本標注。通常的神經(jīng)網(wǎng)絡(luò)訓(xùn)練,非常依賴大量人工標注的數(shù)據(jù)集,而比起其他視覺任務(wù)(例如,圖像分類和動作識別),標注物體需要提供圖片中所有物體的類別標簽和物體所處區(qū)域的邊框坐標。因此,對圖像進行人工標注非常耗時耗力,發(fā)展自動標注無標簽數(shù)據(jù)的方法是減少人工標注負擔(dān)的關(guān)鍵步驟。?

2. 挖掘能夠顯著提高分類器表現(xiàn)的特殊訓(xùn)練樣本?,F(xiàn)有的物體檢測數(shù)據(jù)集通常包含了絕大多數(shù)普通的“簡單”樣本和少量有益的“困難”樣本(即,富含各種光照,變形,遮擋和類內(nèi)變化的信息量)。因為他們服從長尾分布,“困難”的例子是罕見的,為了利用這些能夠最有效訓(xùn)練神經(jīng)網(wǎng)絡(luò)的“困難”樣本,需要能夠從大量樣本中將其識別出來。?

3. 抑制壞樣本的負面影響。一些訓(xùn)練樣本(例如,離群點或噪聲樣本)可能會使模型發(fā)生偏移,在訓(xùn)練時排除被數(shù)據(jù)集中的標注者標記為“混亂”的樣本后,訓(xùn)練得到的物體檢測性能可以得到大幅度的改進和提高。?

為克服上述現(xiàn)有技術(shù)存在的不足,我們的研究動機在于提供一種基于自監(jiān)督過程改進主動學(xué)習(xí)的通用物體檢測系統(tǒng)及方法,以結(jié)合樣本挖掘技術(shù)和深度學(xué)習(xí)物體檢測技術(shù),利用少量標注的樣本和海量的未標注樣本聯(lián)合訓(xùn)練提升模型的檢測性能以提高檢測精度。 同時,可在減少大量的人力物力、節(jié)約成本基礎(chǔ)上實現(xiàn)通用物體檢測目的。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2177


源碼鏈接

https://github.com/yanxp/SSM



Attention-Gated Networks for Improving Ultrasound Scan Plane Detection

@hsu 推薦

#Semantic Segmentation

本文是 Attention U-Net 的前序文章論文提出了 Attention Gate,和主流方法一樣使用的是 soft-attention 機制。文章將 Attention-Gate 應(yīng)用于超聲圖像的分類問題,包括若干器官。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2198


源碼鏈接

https://github.com/ozan-oktay/Attention-Gated-Networks



CLIP-Q: Deep Network Compression Learning by In-Parallel Pruning-Quantization

@yanjoy 推薦

#Model Compression

本文是西蒙弗雷澤大學(xué)發(fā)表于 CVPR 2018 的工作,論文提出先剪枝后量化的壓縮框架,并且自動優(yōu)化超參數(shù)。結(jié)果在 GoogLeNet 上有 10x 壓縮,在 ResNet-50 有 15x 壓縮,并不降低準確率。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2181



deepNF: deep network fusion for protein function prediction

@xuehansheng 推薦

#bioinformatics

本文將深度學(xué)習(xí)應(yīng)用到多網(wǎng)絡(luò)融合的過程中,并針對蛋白質(zhì)功能預(yù)測的網(wǎng)絡(luò)結(jié)構(gòu)特點,提出了一種基于多模式深度自動編碼器的網(wǎng)絡(luò)融合方法——deepNF,從多個異構(gòu)交互網(wǎng)絡(luò)中提取蛋白質(zhì)的高級特征。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2172


源碼鏈接

https://github.com/VGligorijevic/deepNF



Large scale distributed neural network training through online distillation

@paulpeng 推薦

#Neural Networks

本文來自 Google,論文提出了一種大規(guī)模分布式神經(jīng)網(wǎng)絡(luò)的的改進方法。具體來說,作者提出了一種 distillation 模型的變種,一方面考慮是支持大規(guī)模數(shù)據(jù)的并行化處理,另一方面考慮是為預(yù)測模型提供了一種可重復(fù)的方法。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2205



RippleNet: Propagating User Preferences on the Knowledge Graph for Recommender Systems

@xuzhou 推薦

#Recommender Systems

本文是上海交大、微軟亞洲研究院和香港理工大學(xué)聯(lián)合發(fā)表于 CIKM 2018 的工作。為了解決協(xié)同過濾的稀疏性和冷啟動問題,研究人員通常利用社交網(wǎng)絡(luò)或項目屬性等輔助信息來提高推薦效果。本文將知識圖譜應(yīng)用到推薦系統(tǒng)中,是一個很新穎的方法,給推薦系統(tǒng)提供了一個全新的思路。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2201

源碼鏈接

https://github.com/hwwang55/RippleNet



MojiTalk: Generating Emotional Responses at Scale

@filterc 推薦

#Response Generation

本文是清華大學(xué)和 UCSB 發(fā)表于 ACL 2018 的工作,論文旨在教會機器生成有情緒的回答,比如當(dāng)用戶傷心的時候,機器回答一定不能很開心。這項工作的難點在于缺少大規(guī)模標注好的情感訓(xùn)練集,以及如何控制生成回答的情感。現(xiàn)有的情感數(shù)據(jù)集對深度模型都太小,并且只有有限的幾個分類(生氣、開心,或者正面、負面)。?

本文解決方案如下:1. 使用含有 emoji(選擇了 64 種)的 Twitter 數(shù)據(jù)來做自動情感標注(規(guī)模:600K) 2. 在生成回答時,根據(jù)給定的 emoji 來生成不同情感的回答

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2199

源碼鏈接

https://github.com/Claude-Zhou/MojiTalk



A Minimal Span-Based Neural Constituency Parser

@godweiyang 推薦

#Constituency Parsing

本文提出了一種不同于傳統(tǒng)方法的成分句法分析方法。傳統(tǒng)的句法分析器需要預(yù)處理出語法規(guī)則集合,然后利用語法規(guī)則來進行各種句法分析,這類方法的弊端有很多,主要有三點:

1. 語法規(guī)則集合構(gòu)造的好壞直接影響到分析效果的好壞;

2. 不僅如此,利用語法規(guī)則的方法時間復(fù)雜度高,因為每次都要遍歷一遍語法規(guī)則集合來決定每個短語采用哪一條語法規(guī)則;

3. 還有一種弊端就是利用語法規(guī)則的方法無法產(chǎn)生新的產(chǎn)生式,也就是說如果測試集中的語法規(guī)則沒有在訓(xùn)練集中出現(xiàn)過,那么是無法預(yù)測出來的。

本文提出的模型不需要預(yù)先構(gòu)造出語法規(guī)則集合,只需要預(yù)測出每個短語的label和 split 就行了,這樣就能構(gòu)造出一棵完整的句法樹。該模型分為編碼與解碼兩部分,其中編碼部分就是利用雙向 LSTM 將每個詞和短語表示成向量,解碼部分提出了兩種模型,一種是 chart 模型,類似于 CKY 算法,另一種是 top-down 模型,就是自頂向下的貪心算法。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2098


源碼鏈接

https://github.com/mitchellstern/minimal-span-parser



Learning Structural Node Embeddings via Diffusion Wavelets

@xuehansheng 推薦

#Network Embedding

本文是斯坦福大學(xué)發(fā)表于 KDD18 的工作,論文提出了一種通過利用熱小波擴散模式通過低維嵌入來表示每個節(jié)點的網(wǎng)絡(luò)鄰域的方法——GraphWave。 GraphWave 不是在手工選擇的特征上進行訓(xùn)練,而是以無人監(jiān)督的方式學(xué)習(xí)這些嵌入。文章在數(shù)學(xué)上證明具有相似網(wǎng)絡(luò)鄰域的節(jié)點將具有類似的 GraphWave 嵌入,即使這些節(jié)點可能駐留在網(wǎng)絡(luò)的非常不同的部分中。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2204


源碼鏈接

https://github.com/snap-stanford/graphwave



Adversarial Network Embedding

@xuzhou 推薦

#Network Embedding

ANE 是發(fā)表在 AAAI 2018 上的用對抗生成網(wǎng)絡(luò)學(xué)習(xí)網(wǎng)絡(luò)表示的文章?,F(xiàn)有的網(wǎng)絡(luò)表示方法 Deep Walk、LINE、node2vec 等保留了網(wǎng)絡(luò)的一階、二階或者更高階的相似性,但這些方法都缺少增加 embedding 魯棒性的限制。本文通過對抗訓(xùn)練的規(guī)則來正則化表示學(xué)習(xí)過程。

ANE 包含兩個部分:結(jié)構(gòu)保留、對抗學(xué)習(xí)。在結(jié)構(gòu)保留部分,本文實驗中分別使用了 Inductive DeepWalk 和 Denoising Auto encoder 兩種模型;對抗學(xué)習(xí)部分主要是學(xué)習(xí)穩(wěn)定、魯棒的網(wǎng)絡(luò)表示,使結(jié)構(gòu)保留部分生成的網(wǎng)絡(luò)表示服從先驗(prior)分布。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2164



Deep Spatial Feature Reconstruction for Partial Person Re-identification: Alignment-Free Approach

@Molly 推薦

#Person Re-identification

本文是中國科學(xué)院大學(xué)發(fā)表于 CVPR 2018 的工作,論文介紹了一種行人遮擋情況下的重識別方法。在實際應(yīng)用中,行人互相遮擋或者被畫面中其他物體遮擋,往往會導(dǎo)致模型表現(xiàn)下降。這篇文章提出的方法在消耗較少計算資源的情況下,可以得到更好的結(jié)果。?

文章提出了一種框架,先使用 FCN 提取特征,再使用 Deep Spatial Feature Reconstruction 方法計算特征的相似度。即使用完整行人的特征的線性組合來表示部分行人的線性特征,如果誤差很小,則認為是同一個人。否則不是同一個人。

?論文模型:點擊查看大圖



論文鏈接

https://www.paperweekly.site/papers/2183



#推 薦 有 禮#


本期所有入選論文的推薦人

均將獲得PaperWeekly紀念周邊一份




▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙


?禮物領(lǐng)取方式?


推薦人請根據(jù)論文詳情頁底部留言

添加小助手領(lǐng)取禮物


想要贏取以上周邊好禮?

點擊閱讀原文即刻推薦論文吧!



點擊以下標題查看往期推薦:?


  • ??暑假沒人帶怎么辦?還有我們?yōu)槟阃扑]論文

  • ??本周份AI論文推薦新鮮出爐!真的很skr了~

  • ??叮!請查收本周份「知識圖譜」專題論文解讀

  • 還在熬夜憋思路?這12篇最新論文打包送給你

  • 本頂會論文輪番炸場,本周哪些論文最值得讀?


關(guān)于PaperWeekly


PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。


▽ 點擊 |?閱讀原文?| 加入社區(qū)刷論文

總結(jié)

以上是生活随笔為你收集整理的本周最热 AI 论文大集合,还不快一键收藏?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。