日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

快醒醒,一大波最新 AI 论文加开源代码来袭!

發(fā)布時(shí)間:2024/10/8 51 豆豆
生活随笔 收集整理的這篇文章主要介紹了 快醒醒,一大波最新 AI 论文加开源代码来袭! 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.



在碎片化閱讀充斥眼球的時(shí)代,越來越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。


在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。


點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。

這是 PaperDaily 的第?62?篇文章

ETH-DS3Lab at SemEval-2018 Task 7: Effectively Combining Recurrent and Convolutional Neural Networks for Relation Classification and Extraction

@theodoric008 推薦

#Relation Extraction

本文來自蘇黎世聯(lián)邦理工學(xué)院 DS3Lab,文章針對(duì)實(shí)體關(guān)系抽取任務(wù)進(jìn)行了非常系統(tǒng)的實(shí)驗(yàn),并在第十二屆國際語義評(píng)測(cè)比賽 SemEval 2018 的語義關(guān)系抽取和分類任務(wù)上獲得冠軍。本文思路嚴(yán)謹(jǐn),值得國內(nèi)學(xué)者們仔細(xì)研讀。

論文鏈接

https://www.paperweekly.site/papers/1833

Personalizing Dialogue Agents: I have a dog, do you have pets too?

@yihongchen 推薦

#Dialogue System

本文是 Facebook AI Research 發(fā)表于 NIPS 2018 的工作。論文根據(jù)一個(gè)名為 PERSONA-CHAT 的對(duì)話數(shù)據(jù)集來訓(xùn)練基于 Profile 的聊天機(jī)器人,該數(shù)據(jù)集包含超過 16 萬條對(duì)話。

本文致力于解決以下問題:

  • 聊天機(jī)器人缺乏一致性格特征

  • 聊天機(jī)器人缺乏長(zhǎng)期記憶

  • 聊天機(jī)器人經(jīng)常給出模糊的回應(yīng),例如 I don't know

論文鏈接

https://www.paperweekly.site/papers/1802

數(shù)據(jù)集鏈接

https://github.com/facebookresearch/ParlAI/tree/master/parlai/tasks/personachat


DiSAN: Directional Self-Attention Network for RNN/CNN-Free Language Understanding

@zhkun 推薦

#Natural Language Understanding

本文是悉尼科技大學(xué)發(fā)表于 AAAI 2018 的工作,這篇文章是對(duì) Self-Attention 的另一種應(yīng)用,作者提出一種新的方向性的 Attention,從而能更加有效地理解語義

論文鏈接

https://www.paperweekly.site/papers/1822


代碼鏈接

https://github.com/shaohua0116/Group-Normalization-Tensorflow



DetNet: A Backbone network for Object Detection

@chlr1995 推薦

#Object Detection

本文來自清華大學(xué)和 Face++,文章分析了使用 ImageNet 預(yù)訓(xùn)練網(wǎng)絡(luò)調(diào)優(yōu)檢測(cè)器的缺陷,研究通過保持空間分辨率和擴(kuò)大感受野,提出了一種新的為檢測(cè)任務(wù)設(shè)計(jì)的骨干網(wǎng)絡(luò) DetNet

實(shí)驗(yàn)結(jié)果表明,基于低復(fù)雜度的 DetNet59 骨干網(wǎng)絡(luò),在 MSCOCO 目標(biāo)檢測(cè)和實(shí)例分割追蹤任務(wù)上都取得當(dāng)前最佳的成績(jī)

論文鏈接

https://www.paperweekly.site/papers/1844



Imagine This! Scripts to Compositions to Videos

@chlr1995 推薦

#Video Caption

本文以《摩登原始人》的動(dòng)畫片段作為訓(xùn)練數(shù)據(jù),對(duì)每個(gè)片段進(jìn)行詳細(xì)的文本標(biāo)注,最終訓(xùn)練得到一個(gè)可以通過給定腳本或文字描述生成動(dòng)畫片段的模型

模型稱為 Craft,分為布局、實(shí)體、背景,三個(gè)部分。雖然現(xiàn)階段模型存在著很多問題,但是這個(gè)研究在理解文本和視頻圖像高層語義方面有著很大的意義。

論文鏈接

https://www.paperweekly.site/papers/1838



Generating Diverse and Accurate Visual Captions by Comparative Adversarial Learning

@Aidon 推薦

#Image Caption

本文來自華盛頓大學(xué)和微軟,文章提出一個(gè)基于 GAN 的 Image Caption 框架,亮點(diǎn)如下:

1. 提出用 comparative relevance score 來衡量 image-text 的質(zhì)量從而指導(dǎo)模型的訓(xùn)練,并且在訓(xùn)練過程中引入 unrelated captions;

2. 利用 human evaluations 評(píng)估 caption 的 accuracy,給出了和傳統(tǒng)的六個(gè)評(píng)價(jià)指標(biāo)的結(jié)果對(duì)比;

3. 提出通過比較 caption feature vectors 的 variance 來評(píng)估 caption 的 diversity。

論文鏈接

https://www.paperweekly.site/papers/1842



Simultaneously Self-Attending to All Mentions for Full-Abstract Biological Relation Extraction

@robertdlut 推薦

#Self-Attention

本文是 Andrew McCallum 團(tuán)隊(duì)?wèi)?yīng)用 Self-Attention 在生物醫(yī)學(xué)關(guān)系抽取任務(wù)上的一個(gè)工作。這篇論文作者提出了一個(gè)文檔級(jí)別的生物關(guān)系抽取模型,作者使用 Google 提出包含 Self-Attention 的 transformer 來對(duì)輸入文本進(jìn)行表示學(xué)習(xí),和原始的 transformer 略有不同在于他們使用了窗口大小為 5 的 CNN 代替了原始 FNN。

論文鏈接

https://www.paperweekly.site/papers/1787


代碼鏈接

https://github.com/patverga/bran



Evaluation of Session-based Recommendation Algorithms

@Ttssxuan 推薦

#Recommender System

本文系統(tǒng)地介紹了 Session-based Recommendation,主要針對(duì) baseline methods, nearest-neighbor techniques, recurrent neural networks 和 (hybrid) factorization-based methods 等 4 大類算法進(jìn)行介紹。

此外,本文使用 RSC15、TMALL、ZALANDO、RETAILROCKET、8TRACKS 、AOTM、30MUSIC、NOWPLAYING、CLEF 等 7 個(gè)數(shù)據(jù)集進(jìn)行分析,在 Mean Reciprocal Rank (MRR)、Coverage、Popularity bias、Cold start、Scalability、Precision、Recall 等指標(biāo)上進(jìn)行比較。

論文鏈接

https://www.paperweekly.site/papers/1809


代碼鏈接

https://www.dropbox.com/sh/7qdquluflk032ot/AACoz2Go49q1mTpXYGe0gaANa?dl=0



On the Convergence of Adam and Beyond

@chlr1995 推薦

#Neural Network

本文是 ICLR 2018 最佳論文之一。在神經(jīng)網(wǎng)絡(luò)優(yōu)化方法中,有很多類似 Adam、RMSprop 這一類的自適應(yīng)學(xué)習(xí)率的方法,但是在實(shí)際應(yīng)用中,雖然這一類方法在初期下降的很快,但是往往存在著最終收斂效果不如 SGD+Momentum 的問題。

作者發(fā)現(xiàn),導(dǎo)致這樣問題的其中一個(gè)原因是因?yàn)槭褂昧酥笖?shù)滑動(dòng)平均,這使得學(xué)習(xí)率在某些點(diǎn)會(huì)出現(xiàn)激增。在實(shí)驗(yàn)中,作者給出了一個(gè)簡(jiǎn)單的凸優(yōu)化問題,結(jié)果顯示 Adam 并不能收斂到最優(yōu)點(diǎn)。

在此基礎(chǔ)上,作者提出了一種改進(jìn)方案,使得 Adam 具有長(zhǎng)期記憶能力,來解決這個(gè)問題,同時(shí)沒有增加太多的額外開銷。

論文鏈接

https://www.paperweekly.site/papers/1841



Neural Baby Talk

@jamiechoi 推薦

#Image Captioning

本文是佐治亞理工學(xué)院發(fā)表于 CVPR 2018 的工作,文章結(jié)合了 image captioning 的兩種做法:以前基于 template 的生成方法(baby talk)和近年來主流的 encoder-decoder 方法(neural talk)。

論文主要做法其實(shí)跟作者以前的工作"Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning"類似:在每一個(gè) timestep,模型決定生成到底是生成 textual word(不包含視覺信息的連接詞),還是生成 visual word。其中 visual word 的生成是一個(gè)自由的接口,可以與不同的 object detector 對(duì)接。

論文鏈接

https://www.paperweekly.site/papers/1801

代碼鏈接

https://github.com/jiasenlu/NeuralBabyTalk



Context Encoding for Semantic Segmentation

@wanzysky 推薦

#Semantic Segmentation

本文提出了一種與類別預(yù)測(cè)相關(guān)的網(wǎng)絡(luò)結(jié)構(gòu),使得在一定程度上降低了分割任務(wù)的難度。Channel attention 和空間 attention 形成互補(bǔ),Global contextual loss 增強(qiáng) context 信息,同時(shí)提高了小物體的分割精度。

論文鏈接

https://www.paperweekly.site/papers/1814


代碼鏈接

https://github.com/zhanghang1989/PyTorch-Encoding



Adaptive Graph Convolutional Neural Networks

@VIPSP 推薦

#Convolutional Neural Network

圖卷積神經(jīng)網(wǎng)絡(luò)(Graph CNN)是經(jīng)典 CNN 的推廣方法,可用于處理分子數(shù)據(jù)、點(diǎn)云和社交網(wǎng)絡(luò)等圖數(shù)據(jù)。Graph CNN 中的的濾波器大多是為固定和共享的圖結(jié)構(gòu)而構(gòu)建的。但是,對(duì)于大多數(shù)真實(shí)數(shù)據(jù)而言,圖結(jié)構(gòu)的大小和連接性都是不同的。

本論文提出了一種有泛化能力且靈活的 Graph CNN,其可以使用任意圖結(jié)構(gòu)的數(shù)據(jù)作為輸入。通過這種方式,可以在訓(xùn)練時(shí)為每個(gè)圖數(shù)據(jù)構(gòu)建一個(gè)任務(wù)驅(qū)動(dòng)的自適應(yīng)圖(adaptive graph)。

為了有效地學(xué)習(xí)這種圖,作者提出了一種距離度量學(xué)習(xí)方法。并且在九個(gè)圖結(jié)構(gòu)數(shù)據(jù)集上進(jìn)行了大量實(shí)驗(yàn),結(jié)果表明本文方法在收斂速度和預(yù)測(cè)準(zhǔn)確度方面都有更優(yōu)的表現(xiàn)。

論文鏈接

https://www.paperweekly.site/papers/1837


本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語言處理、計(jì)算機(jī)視覺、人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點(diǎn)擊「閱讀原文」即刻加入社區(qū)!


點(diǎn)擊以下標(biāo)題查看往期推薦:?


  • ??來不及想標(biāo)題了,我要去打包收藏了 | 本周值得讀

  • 選對(duì)論文,效率提升50% | 本周值得讀

  • 好看的論文千篇一律,有趣的Github項(xiàng)目萬里挑一!




#作 者 招 募#


讓你的文字被很多很多人看到,喜歡我們不如加入我們



我是彩蛋?


?解鎖新功能:熱門職位推薦!


PaperWeekly小程序升級(jí)啦


今日arXiv√猜你喜歡√熱門職位


找全職找實(shí)習(xí)都不是問題

?

?解鎖方式?

1. 識(shí)別下方二維碼打開小程序

2. 用PaperWeekly社區(qū)賬號(hào)進(jìn)行登陸

3. 登陸后即可解鎖所有功能


?職位發(fā)布?

請(qǐng)?zhí)砑有≈治⑿?#xff08;pwbot02)進(jìn)行咨詢

?

長(zhǎng)按識(shí)別二維碼,使用小程序

*點(diǎn)擊閱讀原文即可注冊(cè)






關(guān)于PaperWeekly


PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。



▽ 點(diǎn)擊 |?閱讀原文?| 加入社區(qū)刷論文

總結(jié)

以上是生活随笔為你收集整理的快醒醒,一大波最新 AI 论文加开源代码来袭!的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。