CVPR 2017论文集锦
計算機視覺頂會之一的CVPR2017將于7月21日至7月26日在夏威夷舉行。下面為目前關(guān)于CVPR2017的論文解讀的文章總結(jié)。歡迎大家收藏并推薦~(小助手微信:Extreme-Vision)
所有文章都已經(jīng)出來,點擊這里查看CVPR2017論文
http://openaccess.thecvf.com/CVPR2017.py
分類論文title(暫時未全部有pdf鏈接)
CVPR 2017 papers on the web
1.【簡評】[CVPR2017]Loss Max-Pooling for Semantic Image Segmentation
論文主要解決的是semantic segmentation中imbalanced training data distributions問題。在semantic segmentation數(shù)據(jù)集包括現(xiàn)實世界中存在明顯的長尾分布的問題,即大多數(shù)的數(shù)據(jù)組成了小部分的類別,因此會導(dǎo)致學(xué)習(xí)器更偏向于這些類別。
2.CVPR 2017論文筆記— Dilated Residual Networks
這篇論文是作者將何愷明(Kaiming He)博士殘差網(wǎng)絡(luò)Deep Residual Networks與其之前研究的Dilated Convolution相結(jié)合的結(jié)果。
3.CVPR2017論文:使用VTransE網(wǎng)絡(luò)進行視覺關(guān)系檢測
知識表示學(xué)習(xí)的思想(TransE)已經(jīng)被成功應(yīng)用于視覺關(guān)系提取(Visual Relation Extraction),提交 CVPR 2017 的新論文《Visual Translation Embedding Network for Visual Relation Detection》提出的 VTransE 方法是在這方面所邁出的重要一步。清華大學(xué)計算機系助理研究員劉知遠對此評論說:「視覺關(guān)系和語義關(guān)系既有重疊又有互補,未來會有很多有趣的問題值得探索。」
4.CVPR2017:深度紋理編碼網(wǎng)絡(luò) (Deep TEN: Texture Encoding Network)
文中論文提出了一個新的深度學(xué)習(xí)模型,這個模型推廣了傳統(tǒng)的字典學(xué)習(xí) (dictionary learning) 和殘差編碼 (Residual Encoders)。
5.CVPR 2017論文:基于網(wǎng)格的運動統(tǒng)計,用于快速、超魯棒的特征匹配(附大神解讀)
論文GMS的方法實際上是消除錯誤匹配的一種方案,比如可以替換ransac。算法執(zhí)行的大致流程是:先執(zhí)行任意一種特征點的檢測和特征點的描述子計算,論文中采用的是ORB特征。然后執(zhí)行暴力匹配BF,最后執(zhí)行GMS以消除錯誤匹配。
6.CVPR 2017 目標跟蹤相關(guān)論文
文中包括main conference中單目標跟蹤相關(guān)的論文,總共11篇,相關(guān)濾波7篇,其中1篇是oral,3篇用到卷積特征,相關(guān)濾波占了64%,(非卷積特征的)CNN相關(guān)4篇,可以看出目標跟蹤現(xiàn)在最火的是相關(guān)濾波和深度學(xué)習(xí)。
7.論文筆記——CVPR 2017 Annotating Object Instances with a Polygon-RNN
文章作者基于深度學(xué)習(xí)提出一種半自動目標事例標注(semi-automatic annotation of object instances)的算法。
8.CVPR 2017:Large Margin Object Tracking with Circulant Feature Maps
文章作者基于深度學(xué)習(xí)提出一種半自動目標事例標注(semi-automatic annotation of object instances)的算法。
9.目標跟蹤算法:ECO:(Efficient Convolution Operators for Tracking)
Martin Danelljan的又一新作。繼C-COT之后又一刷新紀錄的作品。不管是從結(jié)果還是速度上都有提升,尤其是速度提升明顯。用傳統(tǒng)特征HOG+CN的版本速度有60+FPS,用CNN+HOG+CN的速度有8FPS。
10.CVPR 2017 值得關(guān)注的亮點(知乎問答)
各位大神在目標檢測,目標跟蹤,GAN等領(lǐng)域都提出了自己的看法,可以看看.
11.李飛飛協(xié)同斯坦福、CMU帶來全新成果:從網(wǎng)絡(luò)嘈雜的視頻中進行學(xué)習(xí)
這項研究是李飛飛團隊在今年CVPR上的一項最新工作,該方法提出了一種模型用于自動標注網(wǎng)絡(luò)中巨量的嘈雜視頻。
12.對抗學(xué)習(xí)用于目標檢測--A-Fast-RCNN: Hard Positive Generation via Adversary for Object Detection
本文將對抗學(xué)習(xí)引入到目標檢測問題中,通過對抗網(wǎng)絡(luò)生成一下遮擋和變形的訓(xùn)練樣本來訓(xùn)練檢測網(wǎng)絡(luò),從而使得網(wǎng)絡(luò)能夠?qū)φ趽鹾妥冃螁栴}更加的 robust.
13.行人姿態(tài)估計--Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
多人姿態(tài)實時估計,這里主要亮點還是 多人實時+效果。
14CVPR2017論文解讀博客
博主解讀了多篇CVPR2017論文,可以一讀
15微軟亞洲研究院創(chuàng)研論壇 CVPR 2017 論文分享會
微軟亞研院創(chuàng)研舉辦的關(guān)于CVPR2017的論文分享會,共有22篇論文10到15分鐘的解讀,涉及跟蹤,檢測,人臉再識別等多個計算機視覺主題。可以回看視頻。
16VALSE CVPR 2017專場
VALSE舉辦的三場關(guān)于cvpr217論文解讀的線上分享,有大牛出現(xiàn)。
視頻鏈接:http://pan.baidu.com/s/1o8MAWL8密碼: x6i6(視頻轉(zhuǎn)自valse官方)
17CVPR 2017獲獎?wù)撐?/p>
本屆 CVPR 共有兩篇最佳論文、兩篇最佳論文提名、一篇最佳學(xué)生論文。蘋果去年 12 月發(fā)表的對抗網(wǎng)絡(luò) SimGAN 研究,是兩篇最佳論文之一。
18CVPR 2017最佳論文解讀:密集連接卷積網(wǎng)絡(luò)
CVPR 2017獲獎?wù)撐墓?#xff0c;其中一篇最佳論文為康奈爾大學(xué)、清華大學(xué)、Facebook FAIR 實驗室合著的《Densely Connected Convolutional Networks》。在這篇文章中,Momenta 高級研發(fā)工程師胡杰對這篇文章進行了解讀。此文為該系列專欄的第三篇。
19CVPR 2017論文解讀:用于單目圖像車輛3D檢測的多任務(wù)網(wǎng)絡(luò)
車輛檢測是一個經(jīng)典的基于圖像的目標檢測問題,也是智能駕駛感知過程的核心問題之一。這篇文章主要處理單目圖像中的車輛檢測問題。
20CVPR 2017論文解讀:特征金字塔網(wǎng)絡(luò)
這里介紹的文章是來自 Facebook 的特征金字塔網(wǎng)絡(luò) Feature Pyramid Networks(FPN)。FPN 主要解決的是物體檢測中的多尺度問題,通過簡單的網(wǎng)絡(luò)連接改變,在基本不增加原有模型計算量情況下,大幅度提升了小物體檢測的性能。
21阿里iDST CVPR 2017論文解讀:視頻衣物精確檢索
這里介紹的文章是來自 Facebook 的特征金字塔網(wǎng)絡(luò) Feature Pyramid Networks(FPN)。FPN 主要解決的是物體檢測中的多尺度問題,通過簡單的網(wǎng)絡(luò)連接改變,在基本不增加原有模型計算量情況下,大幅度提升了小物體檢測的性能。
22Active Learning: 一個降低深度學(xué)習(xí)時間,空間,經(jīng)濟成本的解決方案
本文解讀的是一篇CVPR論文,它主要解決了一個深度學(xué)習(xí)中的重要問題:如何使用盡可能少的標簽數(shù)據(jù)來訓(xùn)練一個效果promising的分類器。
作者:西方失敗9527 鏈接:https://www.jianshu.com/p/0dd2c80340a1 來源:簡書 著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請注明出處。總結(jié)
以上是生活随笔為你收集整理的CVPR 2017论文集锦的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 区块链世界中的IOTA:它是什么样的存在
- 下一篇: Android中的人脸检测入门