日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

一文看尽8篇目标检测最新论文(EfficientDet/EdgeNet/ASFF/RoIMix/SCL/EFGRNet等)

發布時間:2025/3/8 目标检测 79 豆豆
生活随笔 收集整理的這篇文章主要介紹了 一文看尽8篇目标检测最新论文(EfficientDet/EdgeNet/ASFF/RoIMix/SCL/EFGRNet等) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

前言

為了方便大家閱讀,我已經將其中的目標檢測(Object Detection)論文整理出來。

本文分享的目標檢測論文將同步推送到 github上,歡迎大家 star/fork(點擊閱讀原文,也可直接訪問):

https://github.com/amusi/awesome-object-detection

注意事項:

  • 本文分享的目標檢測論文既含刷新COCO mAP記錄的目標檢測論文,也有追求 mAP 和 FPS trade-off的論文

  • 論文發布時間段:2019年11月

目標檢測論文


【1】SCL: Towards Accurate Domain Adaptive Object Detection via Gradient Detach Based Stacked Complementary Losses

時間:20191108

作者:CMU&印度理工學院

鏈接:https://arxiv.org/abs/1911.02559

注:SCL域自適應目標檢測網絡,性能優于MAF(ICCV'19)和Strong-Weak(CVPR'19)


【2】Localization-aware Channel Pruning for Object Detection

時間:20191109

作者:華中科技大學

鏈接:https://arxiv.org/abs/1911.02237

注:性能優于DCP、ThiNet,可對SSD剪枝70%參數


【3】RoIMix: Proposal-Fusion among Multiple Images for Underwater Object Detection

時間:20191112

作者:北大&鵬城實驗室&騰訊

鏈接:https://arxiv.org/abs/1911.03029

注:水下目標檢測,有點東西的


【4】Model Adaption Object Detection System for Robot

時間:20191113

作者:西安交通大學

鏈接:https://arxiv.org/abs/1911.02718

注:解決機器人靠近物體的移動過程中,對物體保持穩定的檢測。檢測和速度性能優于YOLOv3!


【5】EdgeNet: Balancing Accuracy and Performance for Edge-based Convolutional Neural Network Object Detectors

時間:20191117

作者:塞浦路斯大學

鏈接:https://arxiv.org/abs/1911.06091

注:EdgeNet 速度和精度均優于Tiny-YOLO V3和DroNet,功耗僅4W!可在樹莓派、CPU上實時運行


【6】Enriched Feature Guided Refinement Network for Object Detection

時間:2019(ICCV 2019)

作者:天津大學&IIAI

http://openaccess.thecvf.com/content_ICCV_2019/papers/Nie_Enriched_Feature_Guided_Refinement_Network_for_Object_Detection_ICCV_2019_paper.pdf

代碼:https://github.com/Ranchentx/EFGRNet

注:EFGRNet是基于SSD改進的Single-Stage檢測網絡,在COCO上可達46ms/39.0mAP(512x512),現已開源!


【7】EfficientDet: Scalable and Efficient Object Detection

時間:20191122

作者:谷歌大腦(Quoc V. L大佬)

鏈接:https://arxiv.org/abs/1911.09070

代碼:即將開源

注:本文提出BiFPN和EfficientDet,在COCO上高達51.0 mAP!是目前在沒有做多尺度測試下最強的目標檢測網絡!


【8】Learning Spatial Fusion for Single-Shot Object Detection

時間:20191122

作者:北京航空航天大學

鏈接:https://arxiv.org/abs/1911.09516

代碼:https://github.com/ruinmessi/ASFF

注:YOLOv3+ASFF(自適應空間特征融合)組合,性能優于CornerNet和CenterNet等,在COCO上,38.1mAP/60 FPS,43.9mAP/29FPS!

為了方便下載,我已經將上述論文打包,在作者公眾號 后臺回復:20191123 即可獲得打包鏈接。

往期精彩回顧 那些年做的學術公益-你不是一個人在戰斗適合初學者入門人工智能的路線及資料下載機器學習在線手冊備注:加入本站微信群或者qq群,請回復“加群”加入知識星球(4500+用戶,ID:92416895),請回復“知識星球”

總結

以上是生活随笔為你收集整理的一文看尽8篇目标检测最新论文(EfficientDet/EdgeNet/ASFF/RoIMix/SCL/EFGRNet等)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。