日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

3目标检测的准确率_吊打YOLOv3!普林斯顿大学提出:CornerNetLite,基于关键点的实时且精度高的目标检测算法,已开源!...

發布時間:2024/9/18 目标检测 112 豆豆
生活随笔 收集整理的這篇文章主要介紹了 3目标检测的准确率_吊打YOLOv3!普林斯顿大学提出:CornerNetLite,基于关键点的实时且精度高的目标检测算法,已开源!... 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

點擊上方“CVer”,選擇"星標"和“置頂”

重磅干貨,第一時間送達

前戲

最近目標檢測方向,出了很多很棒的paper,CVer也立即跟進報道(點擊可訪問):

  • 中科院牛津華為諾亞提出:CenterNet,One-stage目標檢測最強算法!可達47mAP,已開源!

  • 谷歌大腦提出:基于NAS的目標檢測模型NAS-FPN,超越Mask R-CNN

  • 最新的Anchor-Free目標檢測模型FCOS,現已開源!

本文要介紹一篇實時性好,準確率又高的論文:CornerNet-Lite。該論文是由 普林斯頓大學的幾位學者提出。截止2019年4月20日,據Amusi所了解,CornerNet-Lite 應該是目標檢測(Object Detection)中 FPS和 mAP trade-off 最佳算法。

注:標題注明"吊打YOLOv3",這個不是標題黨。因為CornerNet-Lite 在 FPS和mAP上都超過了YOLOv3,具體詳見下文介紹。

簡介

《CornerNet-Lite: Efficient Keypoint Based Object Detection》

arXiv:?https://arxiv.org/abs/1904.08900

github:?https://github.com/princeton-vl/CornerNet-Lite

作者團隊:普林斯頓大學

注:2019年04月19日剛出爐的paper

Abstract:基于關鍵點的方法是目標檢測中相對較新的范例,消除了對 anchor boxes 的需求并提供了簡化的檢測框架。基于Keypoint的CornerNet在單級(single-stage)檢測器中實現了最先進的精度。然而,這種準確性來自高處理代價。在這項工作中,我們解決了基于關鍵點的高效目標檢測問題,并引入了 CornerNet-Lite。CornerNet-Lite是CornerNet的兩種有效變體的組合:CornerNet-Saccade,它使用注意機制消除了對圖像的所有像素進行徹底處理的需要,以及引入新的緊湊骨干架構的 CornerNet-Squeeze。這兩種變體共同解決了有效目標檢測中的兩個關鍵用例:在不犧牲精度的情況下提高效率,以及提高實時效率的準確性。CornerNet-Saccade適用于離線處理,將CornerNet的效率提高6.0倍,將COCO的效率提高1.0%。CornerNet-Squeeze適用于實時檢測,提高了流行的實時檢測器YOLOv3的效率和準確性(CornerNet-Squeeze為34ms時34.4mAP,而COCO上為YOLOv3時為39ms,33mAP)。這些貢獻首次共同揭示了基于關鍵點的檢測對于需要處理效率的應用的潛力。

背景

CornetNet 在 ECCV 2018 (oral)上橫空出世,引領一波基于關鍵點的目標檢測狂潮(最近anchor-free盛行),但這類算法(很多one-stage)也有缺點。雖然mAP有很大提升,但速度上都遠不能達到實時(有些論文就避而不談FPS了)。這其實可以看成學術階段的成果,但距離落地應用還有一點距離。

而 本文CornetNet-Lite 是對CornetNet進行優化,提出了兩種算法:

  • CornerNet-Saccade

  • CornerNet-Squeeze

在 Amusi 看來:

CornerNet-Saccade 是追求高準確率(mAP)的同時,盡可能提高速度(FPS),即準確率優先,其對標于CornerNet等算法。創新點:引入Saccade思想

CornerNet-Squeeze?是追求高實時性(FPS)的同時,盡可能提高準確率(mAP),即速度優先,其對標于YOLOv3等算法。創新點:引入SqueezeNet優化思想

正文

1 CornerNet-Saccade

什么是 Saccades?

人類視覺中的 Saccades(掃視運動)是指用于固定不同圖像區域的一系列快速眼動。在目標檢測算法中,我們廣義地使用該術語來表示在推理期間選擇性地裁剪(crop)和處理圖像區域(順序地或并行地,像素或特征)。

CornerNet-Saccade中的 saccades?是?single?type and multi-object。CornerNet-Saccade 檢測圖像中可能的目標位置周圍的小區域內的目標。它使用縮小后的完整圖像來預測注意力圖和粗邊界框;兩者都提出可能的對象位置,然后,CornerNet-Saccade通過檢查以高分辨率為中心的區域來檢測目標。它還可以通過控制每個圖像處理的最大目標位置數來提高效率。具體流程如下圖所示。

CornerNet-Saccade 設計了一種新的backbone:Hourglass-54(含3個hourglass模塊,深度為54)。原CornerNet中使用的是 Hourglass-104(含2個hourglass模塊,深度為54)。

注:crop在CornerNet-Saccade中作用非常大

2 CornerNet-Squeeze

與專注于subset of the pixels以減少處理量的CornerNet-Saccade相比,而CornerNet-Squeeze?探索了一種減少每像素處理量的替代方法。在CornerNet中,大部分計算資源都花在了Hourglass-104上。Hourglass-104 由殘差塊構成,其由兩個3×3卷積層和跳連接(skip connection)組成。盡管Hourglass-104實現了很強的性能,但在參數數量和推理時間方面卻很耗時。為了降低Hourglass-104的復雜性,本文將來自SqueezeNet和MobileNets 的想法融入到 lightweight?hourglass 架構中。

主要操作是:

  • 受SqueezeNet啟發,CornerNet-Squeeze將?residual block 替換為SqueezeNet中的?Fire module?

  • 受MobileNet啟發,CornerNet-Squeeze將第二層的3x3標準卷積替換為 3x3 深度可分離卷積(depth-wise separable convolution)

具體如下表所示:

3 實驗結果

開源代碼是基于PyToch1.0.0,在COCO數據集上進行測試。測試硬件環境為:1080ti GPU + Intel Core i7-7700k CPU。

One-stage 算法性能比較

CornerNet-Saccade?算法性能比較

可見?Hourglass-54要強于Hourglass-104,另外gt attention對漲點幫助很大

CornerNet-Squeeze?算法性能比較

見證奇跡的時候來了!CornerNet-Squeeze 吊打YOLOv3,因為即使是C語言版本的YOLOv3,都已被全方位(mAP+FPS)超過。

注:日常期待一下YOLOv4,畢竟YOLOv3已經是去年3月的"老人"了。

代碼已開源,快快下載嘗試一波:

https://github.com/princeton-vl/CornerNet-Lite

推薦閱讀

目標檢測:Anchor-Free時代

物體檢測的輪回:Anchor-based 與 Anchor-free

深度學習的目標檢測算法是如何解決尺度問題的?

最新的Anchor-Free目標檢測模型FCOS,現已開源!

CVer目標檢測交流群

掃碼添加CVer助手,可申請加入CVer-目標檢測交流群。一定要備注:目標檢測+地點+學校/公司+昵稱(如目標檢測+上海+上交+卡卡)

▲長按加群

這么硬的論文,麻煩給我一個在看

▲長按關注我們

麻煩給我一個在看

總結

以上是生活随笔為你收集整理的3目标检测的准确率_吊打YOLOv3!普林斯顿大学提出:CornerNetLite,基于关键点的实时且精度高的目标检测算法,已开源!...的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。