日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

CVPR 2018 论文解读集锦(9月26日更新)

發布時間:2025/3/8 编程问答 61 豆豆
生活随笔 收集整理的這篇文章主要介紹了 CVPR 2018 论文解读集锦(9月26日更新) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文為極市平臺原創收集,轉載請附原文鏈接:
https://blog.csdn.net/Extremevision/article/details/82757920

CVPR 2018已經順利閉幕,目前已經公布了所有收錄論文名單和最佳論文,為了能夠讓大家更深刻了解CVPR的論文,我們進行了一些CVPR 2018論文解讀的整理,后續還會持續更新。同時我們也對ECCV、ICCV等解讀文章進行了整理,歡迎關注。

CVPR 2017 論文解讀集錦
ICCV 2017 論文解讀集錦
NIPS 2017 論文解讀集錦(12-13更新)
ECCV 2018論文解讀及資源集錦(10月17日更新,含全部論文下載鏈接)


【CVPR 2018 論文集】“Computer Vision Foundation open access”

53.CVPR 2018|分割算法——可以分割一切目標(附各種分割總結)

本文是對何愷明CVPR 2018的目標分割工作解讀,同時作者基于時間順序及相關paper總結了語義分割的結構演變歷程。

52、CVPR2018 oral|香港中文大學胡梟瑋:用于陰影檢測的 DSC 特征

CVPR2018oral文章,來自香港中文大學的胡梟瑋采用了提取 DSC 特征的方式,有效解決了計算機視覺物體檢測與跟蹤中的陰影遮擋問題。


51、CVPR 2018 | Repulsion loss:專注于遮擋情況下的行人檢測

本文由同濟大學和北京大學合作發表于CVPR2018,聚焦于loss層面,為遮擋情況下的行人檢測問題提供了一種行之有效的解決方案。


50、DensePose開源了,2D變3D人體姿勢實時識別 | Facebook@CVPR 2018

Facebook發布的人體姿勢實時識別系統DensePose開源,可以把2D圖像,轉換成3D人體模型。


49、CVPR 2018|Cascade R-CNN:向高精度目標檢測器邁進

本文是CVPR2018通用目標檢測的一篇Oral,在Faster R-CNN框架下,通過級聯多個分類器,逐步提高目標定位的精度,向高精度的目標檢測器邁出了堅實的一步。


48、CV 屆的金雞百花獎:盤點我心中的 CVPR 2018 創意 TOP10

伴隨著深度學習在計算機視覺領域的突飛猛進,我們仍在探索所有的可能性。許多論文將提出全新的深度網絡在視覺上的應用。本文作者將向大家展示其認為是CVPR 2018中最酷最具創意的10篇論文。


47、CVPR 2018 |“尋找”極小人臉

本文是CVPR2018人臉檢測的一篇Oral,結合GAN的思想提升了極小人臉的檢測性能,是GAN入侵目標檢測領域的又一篇力作。

46、【論文整理】CVPR2018 人體姿態相關

作者整理了一份CVPR2018中人體姿態相關的論文列表,并簡述了論文的思路和方法,方便大家有選擇性地閱讀和收藏~


45、CVPR 2018 | 炫酷的卡通畫目標檢測

本文由東京大學發表在CVPR2018,論文采用了圖像層面的域適應策略和弱監督偽標簽策略,探索了如何將已有的檢測器遷移到卡通畫中進行目標檢測。


44.、CVPR 2018 | 無監督語義分割之全卷積域適應網絡

本文由中科大和微軟亞洲研究院合作完成,論文提出了兩種域適應策略,探索了如何使用合成圖像提升真實圖像的語義分割性能。


43、CVPR 2018 Best Paper Taskonomy 作者解讀

斯坦福本科生/準博士生沈博魁,CVPR2018最佳論文Taskonomy的共同二作。鑒于poster session時發現很多人對Taskonomy的理解有偏差,作者親自寫了一篇Taskonomy的中文解讀,希望能對大家有幫助。


42、CVPR2018最佳論文演講:研究任務之間的聯系才是做遷移學習的正確姿勢

今年 CVPR 2018 最佳論文《Taskonomy: Disentangling Task Transfer Learning》(任務學:任務遷移學習的解耦)研究了一個非常新穎的課題,那就是研究視覺任務之間的關系,根據得出的關系可以幫助在不同任務之間做遷移學習。相比于我們看慣了的在為各種任務刷分的研究,這篇論文可謂是一股計算機視覺領域的春風。


41、【CVPR 2018最佳論文出爐】斯坦福等名校折桂,何愷明獲年輕研究員獎

CVPR 2018最佳論文花落斯坦福和伯克利大師論文,最佳學生論文獎授予了CMU。何愷明獲得了PAMI年輕研究員獎。


40、CVPR 2018 | ETH Zurich提出利用對抗策略,解決目標檢測的域適配問題

本文是 ETH Zurich 發表于 CVPR 2018 的工作,論文提出了采用當前火熱的對抗策略,解決目標檢測任務中使用不同數據集訓練的域適配問題。


39、CVPR 2018 | 阿里巴巴&浙大Poster論文:基于直推式無偏嵌入的零樣本學習

大多數現有的零樣本學習(Zero-Shot Learning,ZSL)方法都存在強偏問題,因此在廣義 ZSL 設置中部署后性能很差。本文提出了一個簡單有效的方法——準完全監督學習(QFSL)來解決此問題。


38、CVPR 2018 | 牛津大學&Emotech首次嚴謹評估語義分割模型對對抗攻擊的魯棒性

牛津大學&Emotech 實驗室合作的一篇論文,首次嚴謹評估了語義分割模型對對抗攻擊的魯棒性。

37、CVPR 2018 | 非監督任意姿勢人體圖像合成

在CVPR2018有很多優秀的文章,這篇文章目的在于以非監督的方式利用一張人體圖像合成任意姿勢的同一個人的新圖片。


36、CVPR 2018 | 視頻分析的非局部(non-local) 神經網絡模塊,CMU與Facebook AI研究室視頻分類識別新貢獻

很大程度上,目前的芯片工藝和技術,決定了人類只能依靠神經網絡這樣的方案(高于傳統機器學習一個計算級別)。而非局部(non-local) 模塊把非局部感受野的信息提取操作做成一個神經網絡模塊,方便了端到端的視頻分析。


35、CVPR 2018 | ETH Zurich提出新型網絡「ROAD-Net」,解決語義分割域適配問題

本文是 ETH Zurich 發表于 CVPR 2018 的工作,論文提出了兩個網絡策略,用于處理語義分割任務中使用合成數據訓練的域適配問題。

34、CVPR2018|DiracNets:無需跳層連接,訓練更深神經網絡,結構參數化與Dirac參數化的ResNet

論文講述了虛擬化技術犧牲硬件開銷和性能,換來軟件功能的靈活性;深度模型也類似,如果把網絡結構參數化,得到的模型更靈活易控,但是計算效率并不高。

33、CVPR 2018 | 殘差密集網絡:利用所有分層特征的圖像超分辨率網絡

美國東北大學最近在圖像超分辨領域提出了一種殘差密集網絡,來從原圖生成高分辨率圖像。該網絡結合殘差網絡與密集連接網絡的特性充分利用原始 LR 圖像的所有分層特征,因而能重構出高質量的圖像。


32、CVPR2018|DA-GAN技術:計算機幫你創造奇妙“新物種”

微軟亞研院被CVPR2018接收的論文提出的DA-GAN技術,能夠通過文字描述生成新形象,形成了全新的藝術創造模式。


31、CVPR 2018 論文概述:有損壓縮視頻的多幀質量增強方法

CVPR 2018論文《Multi Frame Quality Enhancement for Compressed Video》提出針對有損壓縮視頻的多幀質量增強方法,顯著提升了視頻質量增強的性能。


30、CVPR 2018 | 使用CNN生成圖像先驗,實現更廣泛場景的盲圖像去模糊

現有的最優方法在文本、人臉以及低光照圖像上的盲圖像去模糊效果并不佳,主要受限于圖像先驗的手工設計屬性。本文研究者將圖像先驗表示為二值分類器,訓練 CNN 來分類模糊和清晰圖像。實驗表明,該圖像先驗比目前最先進的人工設計先驗更具區分性,可實現更廣泛場景的盲圖像去模糊。


29、CVPR2018:基于時空模型無監督遷移學習的行人重識別

本文為你解讀CVPR2018 TFusion,解決的目標是跨數據集的Person Rei,屬于無監督學習,方法是多模態數據融合 + 遷移學習。實驗效果上,超越了所有無監督Person reid方法,逼近有監督方法,在部分數據集上甚至超越有監督方法

28、獨立循環神經網絡(IndRNN):打造更長更深的RNN

電子科技大學和澳大利亞伍倫貢大學的研究者合作發表論文,介紹了他們創造的獨立循環神經網絡(IndRNN),這種新型RNN能有效解決網絡收斂時的梯度爆炸和消失問題,并能夠處理更長的序列。


27、CVPR 2018 | 騰訊AI Lab、MIT等機構提出TVNet:可端到端學習視頻的運動表征

來自騰訊 AI Lab、MIT、清華、斯坦福大學的研究者完成并入選 CVPR 2018 Spotlight 論文的一項研究提出了一種能從數據中學習出類光流特征并且能進行端到端訓練的神經網絡:TVNet

26、CVPR 2018 | Spotlight論文:變分U-Net,可按條件獨立變換目標的外觀和形狀

來自德國海德堡大學的研究者提出了條件 U-Net,將變分自編碼器輸出的外觀條件化。實驗證明,這個模型能夠完成條件圖像生成和轉換。在多個數據集上進行的定性和定量實驗表明,該方法比目前最先進的方法都有所提升。


以下論文解讀來源于paperweekly

25、Unsupervised Person Image Synthesis in Arbitrary Poses

CVPR 2018 Spotlight 論文,ReID + GAN 換 pose。本文用了較多的篇幅講 loss function,pose 的提取用的是 OpenPose 這個庫。 其 loss 分為三部分: Image Adversarial Loss、 Pose Loss、Identity Loss。

論文鏈接:
https://iri,upc.edu/people/aagudo/Papers/CVPR2018/apumarola_etal_cvpr18_2.pdf


24、Person Transfer GAN to Bridge Domain Gap for Person Re-Identification

CVPR 2018 RE-ID Spotlight 一篇,這篇文章主要 contribution 有以下兩點:

提出了一個新的更大的數據集,更為細致:考慮到了視角,光照等更為細致的因素,具體參數可以直接看文章;多個數據集間的差異,即 domain-gap,通過 GAN 來生成和模仿。

論文鏈接:https://arxiv.org/pdf/1711.08565.pdf

代碼鏈接:https://github.com/JoinWei-PKU/PTGAN

數據集鏈接:http://www.pkuvmc.com/publications/msmt17.html

23、Disentangled Person Image Generation

在 NIPS 2017 上,該團隊已經為我們貢獻了 Pose Guided Person Image Generation 這篇非常棒的文章,在 CVPR 2018 中,他們推出的更新的這篇文章不僅僅解決了換 pose 問題,還實現了”隨心所欲“的換裝換 pose,入選今年的 Spotlight。

論文鏈接:https://arxiv.org/pdf/1712.02621.pdf


22、Practical Block-wise Neural Network Architecture Generation

CVPR 2018 Oral 一篇,本文主要提出了通過封裝模塊(block-wise)的方法,運用增強學習設計生成網絡架構的方法。

論文鏈接:https://arxiv.org/pdf/1708.05552.pdf


21、Deep Layer Aggregation

CVPR 2018 Oral,topic:網絡設計模塊化。如名所示,提出了 aggregation 的具體思路,并在層融合上提出了具體方式。

論文鏈接:https://arxiv.org/pdf/1707.06484.pdf

20、Learning Face Age Progression: A Pyramid Architecture of GANs

CVPR 2018 Oral,文中提出了特征提取器用于提出特定特征,原因是作者認為相同年齡段的不同人臉有著相同的的紋理等特定信息,而這個提取器就是提取出這些特征。此外,該分類器是經過 age 分類任務預訓練好了的。

論文鏈接:https://arxiv.org/pdf/1711.10352v1


19、Convolutional Neural Networks with Alternately Updated Clique

北大團隊提出的新的 block 設計,achieves the performance of the state of the art with less parameters.。由于 block 內任意兩層互連,故實現了 top-bottom refinement,也就實現了 attention 機制。文中還提到了部分 technique。

論文鏈接:https://arxiv.org/abs.1802.10419

代碼鏈接:https://github.com/iboing/CliqueNet


18、Unsupervised Discovery of Object Landmarks as Structural Representations

CVPR 2018 Oral, 今年 CVPR Landmark 和 Attention 這兩個詞出現的頻率很高。現在看到的是第二版,對該文進行了更深入的研究后完成。

論文鏈接:https://arxiv.org/pdf/1804.04412.pdf


17、An Analysis of Scale Invariance in Object Detection - SNIP

CVPR 2018 Oral,文章主要解決網絡處理不同 scale 圖片的網絡策略。

論文鏈接:https://arxiv.org/pdf/1711.08189.pdf


16、Wasserstein Introspective Neural Networks

文章主要做的事情就是提出了基于 Wasserstein 的 INN,該組已經在 ICCV,NIPS 等多次提出并改進該模型,該模型主要做的就是將 GAN 中的 G 和 D 結合起來。

論文鏈接:https://arxiv.org/pdf/1711.08875

代碼鏈接:https://github.com/kjunelee/WINN


15、Im2Flow: Motion Hallucination from Static Images for Action Recognition

CVPR 2018 Oral,用 u-net 訓練一個模型:輸入是一個靜態的幀,輸出的預測的五幀光流信息,模型在 YouTube 數據集上訓練。

論文鏈接:https://arxiv.org/pdf/1712.04109.pdf

14、What have we learned from deep representations for action recognition?

CVPR 2018 Zisserman 的新論文,這篇文章就是 two-stream 模型中間層的可視化方法,換句話說,就是探尋 two-stream 模型學到了怎樣的時空信息。

論文鏈接:https://arxiv.org/pdf/1801.01415.pdf


13、Squeeze-and-Excitation Networks

考慮通道加權,用全局池化后訓練的全連層作為權重,相當于在 channels 上加了一個 attention 機制,給不同的 channel 不同的權重。

論文鏈接:https://arxiv.org/pdf/1709.01507.pdf

代碼鏈接:https://github.com/hujie-frank/SENet


12、Actor and Action Video Segmentation from a Sentence

CVPR 2018 Oral,本文定義了一個新的任務:給出一個句子,根據該句子分割視頻中的 actor 及其 action。

論文鏈接:https://arxiv.org/pdf/1803.07485.pdf


11、Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering

CVPR 2018 Oral,主題是 attention+VQA,本文的主要思路是用 faster-rcnn 提取出 proposal,然后用其做 image captioning 或者 VQA,該方法取得了 2017 VQA Challenge 的第一名。

論文鏈接:https://arxiv.org/pdf/1707.07998

代碼鏈接:https://github.com/peteanderson80/bottom-up-attent…

10、Embodied Question Answering

這篇文章主要定義了一個新的 task 并給出了一個數據集。將一個 agent 隨機丟進一個房間,向他提出一個問題,這個 agent 需要自己導航并回答問題。

論文鏈接:https://arxiv.org/pdf/1711.11543


9、Taskonomy: Disentangling Task Transfer Learning

本文定義了一個新的任務,針對在視覺內的遷移學習,并提出了一個蠻大的數據庫, 定義的任務是這樣的:vision task 類目很多,只針對某個問題來解決的話,會需要很大的標注的數據集,但我們不難想到的是,一個視覺任務的解決應該能夠一定程度的解決另一個視覺任務,畢竟一個成熟模型的構建意味著對該 image 的一定的理解,而這部分的理解的一部分或許對另一個 task 有助益,例,物體 relation 的理解對深度信息的學習毫無疑問是有著助益的。

論文鏈接:https://arxiv.org/pdf/1804.08328.pdf

代碼鏈接:https://github.com/StanfordVL/taskonomy


8、Detail-Preserving Pooling in Deep Networks

CVPR 2018 Oral,顧名思義,提出了保留 detail 的池化方法。 max/avg pooling 一個只選取最大而忽略與周圍像素的關聯性,一個重視關聯性卻又直接抹平,并且在實際梯度計算中也有一些 drawback,所以該文提出了這個新方法,一句話概括,就是在池化過程中學了一個動態的 weight。

論文鏈接:https://arxiv.org/pdf/1804.04076.pdf

代碼鏈接:https://github.com/visinf/dpp

7、High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs

CVPR 2018 Oral,本文解決了 GAN 生成高分辨率突破的問題,分辨率達到了 2048*1024,方法精細,值得深入來看。

論文鏈接:https://arxiv.org/pdf/1711,11585.pdf

代碼鏈接:https://github.com/NVIDIA/pix2pixHD

6、Feature Space Transfer for Data Augmentation

CVPR 2018 ORAL,用GAN生成新數據。

論文鏈接:https://arxiv.org/pdf/1801.04356.pdf


5、StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation

這里的 domain 是指針對數據集中的 attribute,根據 attribute 來劃分的,比如相對于發色而言,金發是一個 domain,黑發是一個 domain ,作者在本文提出了一個可以解決 multiple domain translation 的 translator。

論文鏈接:https://arxiv.org/pdf/1711.09020.pdf

代碼鏈接:https://github.com/yunjey/StarGAN


4、Discriminative Learning of Latent Features for Zero-Shot Recognition

CVPR 2018 Oral,Zero-Shot Learning 就是尋求將學習到的特征映射到另一個空間中,從而 map 到 seen 及 unseen 的屬性或者 label 上。這篇文章的主要亮點在于學習了已定義label的同時,學習了latent attribute(隱含屬性)。

論文鏈接:https://arxiv.org/pdf/1803.06731.pdf


3、Relation Networks for Object Detection

CVPR 2018 Oral,本文設計了一個考慮 relation 的 module,來增強 object detection 的性能。

論文鏈接:https://arxiv.org/pdf/1711.11575.pdf


2、Semi-parametric Image Synthesis

CVPR 2018 Oral,來自 CUHK,這里設計的模型以 semantic layout 輸入,輸出真實的相片般的圖片。

論文鏈接:https://vladlen.info/papers/SIMS.pdf


1、Synthesizing Images of Humans in Unseen Poses

CVPR 2018 Oral,Pose 合成。

論文鏈接:https://arxiv.org/pdf/1804.07739.pdf

總結

以上是生活随笔為你收集整理的CVPR 2018 论文解读集锦(9月26日更新)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。