日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

春节期间,你错过了这些开源论文 | Paper + Code 清单

發(fā)布時間:2024/10/8 编程问答 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 春节期间,你错过了这些开源论文 | Paper + Code 清单 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.



在碎片化閱讀充斥眼球的時代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。


在這個欄目里,你會快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時刻緊跟 AI 前沿成果。


點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。

這是 PaperDaily 的第?46?篇文章
[ 自然語言處理 ]


Nested LSTMs

@Synced 推薦

#RNN

近日,CMU 和蒙特利爾大學(xué)聯(lián)合提出一種新型的多級記憶的 RNN 架構(gòu)——嵌套 LSTM。在訪問內(nèi)部記憶時,嵌套 LSTM 相比傳統(tǒng)的堆棧 LSTM 有更高的自由度,從而能處理更長時間規(guī)模的內(nèi)部記憶。

實(shí)驗(yàn)也表明,NLSTM 在多種任務(wù)上都超越了堆棧 LSTM。作者認(rèn)為嵌套 LSTM 有潛力直接取代堆棧 LSTM。

論文鏈接

https://www.paperweekly.site/papers/1627

代碼鏈接

https://github.com/hannw/nlstm


A Consolidated Open Knowledge Representation for Multiple Texts

@hussar 推薦

#Knowledge Representation

本文提出了一種統(tǒng)一的開放知識表示方法 OKR,可以解決多文檔的摘要問題。通過各種指代鏈接技術(shù)對多文檔的信息進(jìn)行壓縮。

論文鏈接

https://www.paperweekly.site/papers/1668

代碼鏈接

https://github.com/vered1986/OKR


Deconvolutional Paragraph Representation Learning

@icaruss 推薦

#Encoder-Decoder Framework

這篇 2017 年發(fā)表在 NIPS 的文章提供了一個 deconvolutional text autoencoder 架構(gòu),在長文本重構(gòu)上從原先的 20 多的 bleu score 提升到 90 多,并在文本分類等下游任務(wù)上提升顯著。另外,本文在速度上也提升了三到五倍。

論文鏈接

https://www.paperweekly.site/papers/1536

代碼鏈接

https://github.com/dreasysnail/textCNN_public



KBGAN: Adversarial Learning for Knowledge Graph Embeddings

@paperweekly 推薦

#Knowledge Graph

知識圖譜和 NLP 數(shù)據(jù)里通常只有正樣本,所以訓(xùn)練傳統(tǒng)嵌入模型的時候,大家喜歡用隨機(jī)采樣方法生成負(fù)例。但是這樣生成的負(fù)例往往質(zhì)量很差,對模型訓(xùn)練沒什么幫助。作者提出了一種基于強(qiáng)化對抗學(xué)習(xí)的新方法,可以自動生成高質(zhì)量的負(fù)樣本。

論文鏈接

https://www.paperweekly.site/papers/1712

代碼鏈接

https://github.com/cai-lw/KBGAN



MobiRNN: Efficient Recurrent Neural Network Execution on Mobile GPU

@kaierlong 推薦

#Recurrent Neural Network

本文提出的 MobiRNN 框架,可以顯著降低 RNN 模型在手機(jī)設(shè)備上的運(yùn)行時間。

論文鏈接

https://www.paperweekly.site/papers/1674

代碼鏈接

https://github.com/csarron/MobiRnn



[ 計(jì)算機(jī)視覺 ]


Spectral Normalization for Generative Adversarial Networks

@paperweekly 推薦

#GAN

訓(xùn)練不穩(wěn)定至今仍是 GAN 的一個重大挑戰(zhàn)。本文提出了一種新型權(quán)值歸一化(weight normalization)技術(shù)?SN-GANs,能讓判定器訓(xùn)練更加穩(wěn)定。

這是一種輕量化、易實(shí)現(xiàn)的方法,作者用 CIFAR10、STL-10 和 ILSVRC2012 的數(shù)據(jù)集對它進(jìn)行了測試,實(shí)驗(yàn)證明,SN-GANs 能比以往提出的穩(wěn)定方法生成質(zhì)量更高,或者至少是質(zhì)量相當(dāng)?shù)膱D像。

論文鏈接

https://www.paperweekly.site/papers/1670

代碼鏈接

https://github.com/pfnet-research/sngan_projection



Parallel Tracking and Verifying

@chenhong 推薦

#Object Tracking

object tracking 是視頻分析的基本任務(wù),長期以來一直有兩大陣營,CF 相關(guān)濾波和 CNN,當(dāng)然也可以 CF+CNN 融合。

本文將 tracking 過程分解為兩個并行但是相互協(xié)作的部分:一個用于快速的跟蹤(fast tracking),另一個用于準(zhǔn)確的驗(yàn)證(accurate verification)。?

論文鏈接

https://www.paperweekly.site/papers/1613

代碼鏈接

http://www.dabi.temple.edu/~hbling/code/PTAV/ptav.htm



AmbientGAN: Generative models from lossy measurements

@paperweekly 推薦

#Generative Adversarial Networks

本文為 ICLR 2018 錄用論文,主要研究如何從嘈雜、扭曲、局部的觀察中學(xué)習(xí) GAN。

論文鏈接

https://www.paperweekly.site/papers/1620

代碼鏈接

https://github.com/shinseung428/ambientGAN_TF



Depth CNNs for RGB-D scene recognition: learning from scratch better than transferring from RGB-CNNs

@paperweekly 推薦

#Scene Recognition

基于卷積神經(jīng)網(wǎng)絡(luò)的 RGB-D 場景識別,本文為 AAAI2017 錄用文章。

論文鏈接

https://www.paperweekly.site/papers/1610

代碼鏈接

https://github.com/songxinhang/D-CNN



TernausNet: U-Net with VGG11 Encoder Pre-Trained on ImageNet for Image Segmentation

@Synced 推薦

#Image Segmentation

本文展示了 U-Net 類型的架構(gòu)如何利用預(yù)訓(xùn)練的編碼器提升性能。代碼和相關(guān)的預(yù)訓(xùn)練權(quán)重已開源。文中比較了三種權(quán)重初始化方案:LeCun uniform、取自 VGG11 權(quán)重的編碼器和在 Carvana 數(shù)據(jù)集上訓(xùn)練的完整網(wǎng)絡(luò)。

該網(wǎng)絡(luò)架構(gòu)是 Kaggle 競賽(Carvana Image Masking Challenge)中獲勝解決方案(在 735 名參賽者中排名第一)的一部分。

論文鏈接

https://www.paperweekly.site/papers/1573

代碼鏈接

https://github.com/ternaus/TernausNet


本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語言處理、計(jì)算機(jī)視覺、人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點(diǎn)擊「閱讀原文」即刻加入社區(qū)!



#榜 單 公 布?#


2017年度最值得讀的AI論文 | NLP篇 · 評選結(jié)果公布

2017年度最值得讀的AI論文 | CV篇 · 評選結(jié)果公布


我是彩蛋?


?解鎖新功能:熱門職位推薦!


PaperWeekly小程序升級啦


今日arXiv√猜你喜歡√熱門職位


找全職找實(shí)習(xí)都不是問題

?

?解鎖方式?

1. 識別下方二維碼打開小程序

2. 用PaperWeekly社區(qū)賬號進(jìn)行登陸

3. 登陸后即可解鎖所有功能


?職位發(fā)布?

請?zhí)砑有≈治⑿?#xff08;pwbot01)進(jìn)行咨詢

?

長按識別二維碼,使用小程序

*點(diǎn)擊閱讀原文即可注冊






關(guān)于PaperWeekly


PaperWeekly 是一個推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。



與50位技術(shù)專家面對面20年技術(shù)見證,附贈技術(shù)全景圖

總結(jié)

以上是生活随笔為你收集整理的春节期间,你错过了这些开源论文 | Paper + Code 清单的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。