日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

25篇最新CV领域综述性论文速递!涵盖15个方向:目标检测/图像处理/姿态估计/医学影像/人脸识别等方向

發(fā)布時(shí)間:2025/3/8 目标检测 65 豆豆
生活随笔 收集整理的這篇文章主要介紹了 25篇最新CV领域综述性论文速递!涵盖15个方向:目标检测/图像处理/姿态估计/医学影像/人脸识别等方向 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

目標(biāo)檢測(cè)

1. 綜述:深度域適應(yīng)目標(biāo)檢測(cè)

標(biāo)題:Deep Domain Adaptive Object Detection: a Survey

作者:Wanyi Li, Peng Wang

鏈接:https://arxiv.org/abs/2002.06797

本文共梳理了40篇相關(guān)文獻(xiàn),由中科院自動(dòng)化所學(xué)者發(fā)布。基于深度學(xué)習(xí)(DL)的目標(biāo)檢測(cè)已經(jīng)取得了很大的進(jìn)展,這些方法通常假設(shè)有大量的帶標(biāo)簽的訓(xùn)練數(shù)據(jù)可用,并且訓(xùn)練和測(cè)試數(shù)據(jù)從相同的分布中提取。然而,這兩個(gè)假設(shè)在實(shí)踐中并不總是成立的。深域自適應(yīng)目標(biāo)檢測(cè)(DDAOD)作為一種新的學(xué)習(xí)范式應(yīng)運(yùn)而生。本文綜述了深域自適應(yīng)目標(biāo)檢測(cè)方法的研究進(jìn)展。

2. 深度學(xué)習(xí)中的異常實(shí)例檢測(cè):綜述

標(biāo)題:Anomalous Instance Detection in Deep Learning: A Survey

作者:Saikiran Bulusu, Dawn Song

鏈接:https://arxiv.org/abs/2003.06979

本文共梳理了119篇相關(guān)文獻(xiàn),由雪城大學(xué)學(xué)者發(fā)布。討論多種異常實(shí)例檢測(cè)方法,并分析了各種方法的相對(duì)優(yōu)勢(shì)和劣勢(shì)。

3. 使用移動(dòng)攝像機(jī)檢測(cè)移動(dòng)物體:全面綜述

標(biāo)題:Moving Objects Detection with a Moving Camera: A Comprehensive Review

作者:Marie-Neige Chapel, Thierry Bouwmans

鏈接:https://arxiv.org/abs/2001.05238

本文共梳理了347篇相關(guān)文獻(xiàn)。隨著移動(dòng)傳感器的興起,研究移動(dòng)相機(jī)逐漸變?yōu)闊衢T方向。本文對(duì)不同現(xiàn)有方法進(jìn)行了識(shí)別,并將其分為一個(gè)平面或多個(gè)兩類。在這兩個(gè)類別中,將各類方法分為8****組:全景背景減法,雙攝像頭,運(yùn)動(dòng)補(bǔ)償,子空間分割,運(yùn)動(dòng)分割,平面+視差,多平面和按塊分割圖像。本文還對(duì)公開可用的數(shù)據(jù)集和評(píng)估指標(biāo)進(jìn)行了研究。


圖像分類

4. 圖像分類中的半監(jiān)督,自我監(jiān)督和無監(jiān)督技術(shù)綜述

標(biāo)題:A survey on Semi-, Self- and Unsupervised Techniques in Image Classification

作者:Lars Schmarje, Reinhard Koch

鏈接:https://arxiv.org/abs/2002.08721

本文共梳理了51篇相關(guān)文獻(xiàn)。綜述了標(biāo)簽較少的圖像分類中常用的21種技術(shù)和方法。我們比較方法,并確定了三個(gè)主要趨勢(shì)。


圖像去噪

5. 圖像去噪深度學(xué)習(xí):綜述

標(biāo)題:Deep Learning on Image Denoising: An overview

作者:Chunwei Tian, Chia-Wen Lin

鏈接:https://arxiv.org/abs/1912.13171

本文梳理了238篇相關(guān)文獻(xiàn),由哈爾濱工業(yè)大學(xué)、廣東工業(yè)大學(xué)、清華大學(xué)學(xué)者共同發(fā)布。不同類型的處理噪聲深度學(xué)習(xí)方法存在巨大差異,而目前很少有相關(guān)研究來進(jìn)行相關(guān)總結(jié)。本文對(duì)圖像去噪中不同深度學(xué)習(xí)技術(shù)進(jìn)行了比較研究,分析不同方法的動(dòng)機(jī)和原理,并在公共去噪數(shù)據(jù)集進(jìn)行比較。研究包括:(1). 加白噪聲圖像的CNN;(2)用于真實(shí)噪聲圖像的CNN;(3)用于盲噪聲去噪的CNN;(4)用于混合噪聲圖像的CNN。


圖像分割

6. 使用深度學(xué)習(xí)進(jìn)行圖像分割:綜述

標(biāo)題:Image Segmentation Using Deep Learning: A Survey

作者:Shervin Minaee, Demetri Terzopoulos

鏈接:https://arxiv.org/abs/2001.05566

本文梳理了172篇相關(guān)文獻(xiàn),對(duì)語義和實(shí)例分割文獻(xiàn)進(jìn)行了全面回顧,涵蓋了的各種開創(chuàng)性作品,包括全卷積像素標(biāo)記網(wǎng)絡(luò),編碼器-解碼器體系結(jié)構(gòu),多尺度以及基于金字塔的方法,遞歸網(wǎng)絡(luò),視覺注意模型以及對(duì)抗中的生成模型。


人臉識(shí)別

7. DeepFakes:面部操縱和偽造檢測(cè)綜述

標(biāo)題:DeepFakes and Beyond: A Survey of Face Manipulation and Fake Detection

作者:Ruben Tolosana, Javier Ortega-Garcia

鏈接:https://arxiv.org/abs/2001.00179

本文梳理了105篇相關(guān)文獻(xiàn),本文對(duì)操縱人臉的圖像技術(shù)(包括DeepFake方法)以及檢測(cè)此類技術(shù)的方法進(jìn)行了全面綜述。論述了四種類型的面部操作:全臉合成、面部身份交換(DeepFakes)、面部屬性操作以及面部表情操作。


姿態(tài)估計(jì)

8. 目標(biāo)姿態(tài)回顧:從3D邊界框檢測(cè)器到完整的6D姿態(tài)估計(jì)器

標(biāo)題:A Review on Object Pose Recovery: from 3D Bounding Box Detectors to Full 6D Pose Estimators

作者:Caner Sahin, Tae-Kyun Kim

鏈接:https://arxiv.org/abs/2001.10609

本文梳理了206篇相關(guān)文獻(xiàn),由倫敦帝國理工學(xué)院學(xué)者發(fā)布。本文對(duì)3D邊界框檢測(cè)器到完整的6D姿態(tài)估計(jì)器的物體姿態(tài)恢復(fù)方法的進(jìn)行了首次全面的綜述。基于數(shù)學(xué)模型,將各類方法分為分類,回歸,分類與回歸,模板匹配和點(diǎn)對(duì)特征匹配任務(wù)。


行為/動(dòng)作識(shí)別

9. 基于3D骨架的動(dòng)作識(shí)別學(xué)習(xí)方法的研究

標(biāo)題:A Survey on 3D Skeleton-Based Action Recognition Using Learning Method

作者:Bin Ren, Hong Liu

鏈接:https://arxiv.org/abs/2002.05907

本文梳理了81篇相關(guān)文獻(xiàn),由北京大學(xué)學(xué)者發(fā)布。本文強(qiáng)調(diào)了動(dòng)作識(shí)別的必要性和3D骨架數(shù)據(jù)的重要性,然后以數(shù)據(jù)驅(qū)動(dòng)的方式對(duì)基于遞歸神經(jīng)網(wǎng)絡(luò),基于卷積神經(jīng)網(wǎng)絡(luò)和基于圖卷積網(wǎng)絡(luò)的主流動(dòng)作識(shí)別技術(shù)進(jìn)行了全面介紹,這也是第一次對(duì)使用3D骨架數(shù)據(jù)進(jìn)行基于深度學(xué)習(xí)的動(dòng)作識(shí)別的全面研究。


人群計(jì)數(shù)

**10. 基于CNN的密度估算和人群計(jì)數(shù):**綜述

標(biāo)題:CNN-based Density Estimation and Crowd Counting: A Survey

作者:Guangshuai Gao, Yunhong Wang

鏈接:https://arxiv.org/abs/2003.12783

本文梳理了222篇相關(guān)文獻(xiàn),由北京航空航天大學(xué)學(xué)者發(fā)布,基于CNN的密度圖估計(jì)方法,調(diào)研了**220+**工作,對(duì)人群計(jì)數(shù)進(jìn)行了全面系統(tǒng)的研究。同時(shí)根據(jù)評(píng)估指標(biāo),在人群統(tǒng)計(jì)數(shù)據(jù)集上選擇表現(xiàn)最好的三名,并分析其優(yōu)缺點(diǎn)。


醫(yī)學(xué)影像

====

11. 使用經(jīng)典和深層神經(jīng)網(wǎng)絡(luò)進(jìn)行的乳房組織病理學(xué)圖像分析的全面綜述

標(biāo)題:A Comprehensive Review for Breast Histopathology Image Analysis Using Classical and Deep Neural Networks

作者:Xiaomin Zhou, Tao Jiang

鏈接:https://arxiv.org/abs/2003.12255

本文梳理了180篇相關(guān)文獻(xiàn),由東北大學(xué)學(xué)者發(fā)布。對(duì)基于人工神經(jīng)網(wǎng)絡(luò)的BHIA技術(shù)進(jìn)行了全面概述,將BHIA系統(tǒng)分為經(jīng)典和深度神經(jīng)網(wǎng)絡(luò)以進(jìn)行深入研究,分析現(xiàn)有模型以發(fā)現(xiàn)最合適的算法,并提供可公開訪問的數(shù)據(jù)集。

12. 使用深度神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像配準(zhǔn):全面綜述

標(biāo)題:Medical Image Registration Using Deep Neural Networks: A Comprehensive Review

作者:Hamid Reza Boveiri, Ali Reza MehdiZadeh

鏈接:https://arxiv.org/abs/2002.03401

本文梳理了117篇相關(guān)文獻(xiàn),對(duì)使用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行醫(yī)學(xué)圖像配準(zhǔn)的最新文獻(xiàn)進(jìn)行了全面回顧,系統(tǒng)地涵蓋了該領(lǐng)域的相關(guān)作品,包括關(guān)鍵概念,統(tǒng)計(jì)分析,關(guān)鍵技術(shù),主要貢獻(xiàn),挑戰(zhàn)和未來方向。

13. 邁向自動(dòng)威脅檢測(cè):X射線安全成像中深度學(xué)習(xí)進(jìn)展綜述

標(biāo)題:Towards Automatic Threat Detection: A Survey of Advances of Deep Learning within X-ray Security Imaging

作者:Samet Akcay, Toby Breckon

鏈接:https://arxiv.org/abs/2001.01293

本文梳理了151篇相關(guān)文獻(xiàn),由英國杜倫大學(xué)學(xué)者發(fā)布。本文分常規(guī)機(jī)器學(xué)習(xí)和當(dāng)代深度學(xué)習(xí)兩類來回顧X射線安全成像算法。將深度學(xué)習(xí)方法分為有監(jiān)督,半監(jiān)督和無監(jiān)督學(xué)習(xí),著重論述分類,檢測(cè),分割和異常檢測(cè)任務(wù),同時(shí)包含有完善的X射線數(shù)據(jù)集。

14. 用于計(jì)算組織病理學(xué)的深度神經(jīng)網(wǎng)絡(luò)模型綜述

標(biāo)題:Deep neural network models for computational histopathology: A survey

作者:Chetan L. Srinidhi, Anne L. Martel

鏈接:https://arxiv.org/abs/1912.12378

本文梳理了130篇相關(guān)文獻(xiàn),由多倫多大學(xué)學(xué)者發(fā)布。本文對(duì)組織病理學(xué)圖像分析中使用的最新深度學(xué)習(xí)方法進(jìn)行了全面回顧,包括有監(jiān)督,弱監(jiān)督,無監(jiān)督,遷移學(xué)習(xí)等領(lǐng)域,并總結(jié)了幾個(gè)現(xiàn)有的開放數(shù)據(jù)集。


三維重建

15. 外部形狀對(duì)3D內(nèi)部結(jié)構(gòu)預(yù)測(cè)綜述

標(biāo)題:A Survey On 3D Inner Structure Prediction from its Outer Shape

作者:Mohamed Mejri, Cédric Pradalier

鏈接:https://arxiv.org/abs/2002.04571

本文梳理了81篇相關(guān)文獻(xiàn),由北京大學(xué)學(xué)者發(fā)布。由于過去與骨架數(shù)據(jù)相關(guān)內(nèi)容很少,本文是第一篇針對(duì)使用3D骨架數(shù)據(jù)進(jìn)行基于深度學(xué)習(xí)的動(dòng)作識(shí)別進(jìn)行全面討論的研究。本文突出了動(dòng)作識(shí)別和3D骨架數(shù)據(jù)的重要性,以數(shù)據(jù)驅(qū)動(dòng)的方式對(duì)基于遞歸神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和圖卷積網(wǎng)絡(luò)的主流動(dòng)作識(shí)別技術(shù)進(jìn)行了全面介紹。并介紹了最大的3D骨架數(shù)據(jù)集NTU-RGB+D及其新版本NTU-RGB+D 120,并論述了幾種現(xiàn)有的頂級(jí)算法。


三維點(diǎn)云

16. 點(diǎn)云的無目標(biāo)配準(zhǔn)綜述

標(biāo)題:Target-less registration of point clouds: A review

作者:Yue Pan

本文對(duì)48篇文獻(xiàn)進(jìn)行了梳理,總結(jié)了無目標(biāo)點(diǎn)云配準(zhǔn)的基本工作,回顧了三種常用的配準(zhǔn)方法,即基于特征匹配的方法,迭代最近點(diǎn)算法和隨機(jī)假設(shè),并分析了這些方法的優(yōu)缺點(diǎn),介紹它們的常見應(yīng)用場(chǎng)景。

鏈接:https://arxiv.org/abs/1912.12756


OCR:

17. 手寫光學(xué)字符識(shí)別(OCR):綜合系統(tǒng)文獻(xiàn)綜述(SLR)

標(biāo)題:Handwritten Optical Character Recognition (OCR): A Comprehensive Systematic Literature Review (SLR)

作者:Jamshed Memon, Rizwan Ahmed Khan

鏈接:https://arxiv.org/abs/2001.00139

本文對(duì)142篇相關(guān)文獻(xiàn)進(jìn)行了梳理,總結(jié)了有關(guān)OCR的研究,綜述了2000年至2018年之間發(fā)布的研究文章,介紹OCR的最新結(jié)果和技術(shù),并分析研究差距,以總結(jié)研究方向。


深度depth相關(guān):

18. 基于深度學(xué)習(xí)的單目深度估計(jì):綜述

標(biāo)題:Monocular Depth Estimation Based On Deep Learning: An Overview

作者:Chaoqiang Zhao, Feng Qian

鏈接:https://arxiv.org/abs/2003.06620

本文對(duì)119篇相關(guān)文獻(xiàn)進(jìn)行了梳理,由華東理工大學(xué)學(xué)者發(fā)布。隨著深度神經(jīng)網(wǎng)絡(luò)的迅速發(fā)展,基于深度學(xué)習(xí)的單眼深度估計(jì)已得到廣泛研究。為了提高深度估計(jì)的準(zhǔn)確性,提出了各種網(wǎng)絡(luò)框架,損失函數(shù)和訓(xùn)練策略。因此,本文綜述了當(dāng)前基于深度學(xué)習(xí)的單眼深度估計(jì)方法,總結(jié)了幾種基于深度學(xué)習(xí)的深度估計(jì)中廣泛使用的數(shù)據(jù)集和評(píng)價(jià)指標(biāo),同時(shí)根據(jù)不同的訓(xùn)練方式回顧了一些有代表性的現(xiàn)有方法:有監(jiān)督,無監(jiān)督和半監(jiān)督。


CNN

**19. **卷積神經(jīng)網(wǎng)絡(luò)的概述論文:分析、應(yīng)用和展望

標(biāo)題:A Survey of Convolutional Neural Networks: Analysis, Applications, and Prospects

作者:Zewen Li, Wenjie Yang, Shouheng Peng, Fan Liu

鏈接:https://arxiv.org/abs/2004.02806

本文對(duì)119篇相關(guān)文獻(xiàn)進(jìn)行了梳理,由華東理工大學(xué)學(xué)者發(fā)布。本文旨在在卷積神經(jīng)網(wǎng)絡(luò)這個(gè)快速增長(zhǎng)的領(lǐng)域中盡可能提供新穎的想法和前景,不僅涉及二維卷積,而且涉及一維和多維卷積。首先,本文簡(jiǎn)要介紹了CNN的歷史并概述了CNN發(fā)展,介紹經(jīng)典CNN模型,重點(diǎn)論述使它們達(dá)到SOTA的關(guān)鍵因素,并通過實(shí)驗(yàn)分析提供了一些經(jīng)驗(yàn)法則,最后對(duì)一維,二維和多維卷積的應(yīng)用進(jìn)行了概述。


視覺常識(shí)/其他

20. 神經(jīng)網(wǎng)絡(luò)分類器的信息平面分析研究述評(píng)

標(biāo)題:On Information Plane Analyses of Neural Network Classifiers – A Review

作者:Bernhard C. Geiger

鏈接:https://arxiv.org/abs/2003.09671

21. 低功耗深度學(xué)習(xí)和計(jì)算機(jī)視覺方法的概述

標(biāo)題:A Survey of Methods for Low-Power Deep Learning and Computer Vision

作者:Abhinav Goel, George K. Thiruvathukal

鏈接:https://arxiv.org/abs/2003.11066

22. 深度學(xué)習(xí)遇到數(shù)據(jù)對(duì)齊時(shí):深度注冊(cè)網(wǎng)絡(luò)(DRN)評(píng)述

標(biāo)題:When Deep Learning Meets Data Alignment: A Review on Deep Registration Networks (DRNs)

作者:Victor Villena-Martinez, Robert B. Fisher

鏈接:https://arxiv.org/abs/2003.03167

23. 面向消費(fèi)設(shè)備的無限制掌紋識(shí)別:文獻(xiàn)綜述

標(biāo)題:Towards Unconstrained Palmprint Recognition on Consumer Devices: a Literature Review

作者:Adrian-S. Ungureanu, Peter Corcoran

鏈接:https://arxiv.org/abs/2003.00737

24. 基于地面紋理的本地化功能-綜述

標(biāo)題:Features for Ground Texture Based Localization – A Survey

作者:Jan Fabian Schmid, Rudolf Mester

鏈接:https://arxiv.org/abs/2002.11948

25. 從觀看到移動(dòng):視覺室內(nèi)導(dǎo)航(VIN)學(xué)習(xí)綜述

標(biāo)題:From Seeing to Moving: A Survey on Learning for Visual Indoor Navigation (VIN)

作者:Xin Ye, Yezhou Yang

鏈接:https://arxiv.org/abs/2002.11310

為了方便大家閱讀,小極已經(jīng)將上述論文全部打包下載。在 **極市平臺(tái) 公眾號(hào)后臺(tái)回復(fù) 25綜述 **,即可獲取打包下載鏈接。

-END**-**

推薦閱讀:

  • 你需要關(guān)注的計(jì)算機(jī)視覺論文在這里!最新最全state-of-art論文,包含閱讀筆記

  • 史上最全GAN綜述2020版:算法、理論及應(yīng)用

  • Attention綜述:基礎(chǔ)原理、變種和最近研究

總結(jié)

以上是生活随笔為你收集整理的25篇最新CV领域综述性论文速递!涵盖15个方向:目标检测/图像处理/姿态估计/医学影像/人脸识别等方向的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。