日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略

發(fā)布時間:2025/3/21 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

DL之RetinaNet:RetinaNet算法的簡介(論文介紹)、架構(gòu)詳解、案例應用等配圖集合之詳細攻略

?

?

?

目錄

RetinaNet算法的簡介(論文介紹)

0、實驗結(jié)果

1、RetinaNet算法的特點及其貢獻

RetinaNet算法的架構(gòu)詳解

RetinaNet算法的案例應用


?

?

?

?

?

相關(guān)文章
DL之RetinaNet:RetinaNet算法的簡介(論文介紹)、架構(gòu)詳解、案例應用等配圖集合之詳細攻略
DL之RetinaNet:RetinaNet算法的架構(gòu)詳解

RetinaNet算法的簡介(論文介紹)

? ? ? ? ?RetinaNet源自論文Focal Loss for Dense Object Detection用于密集目標檢測的焦損失。

Abstract ?
? ? ? ?The highest accuracy object detectors to date are based ?on a two-stage approach popularized by R-CNN, where a ?classifier is applied to a sparse set of candidate object locations. ?In contrast, one-stage detectors that are applied ?over a regular, dense sampling of possible object locations ?have the potential to be faster and simpler, but have trailed ?the accuracy of two-stage detectors thus far. In this paper, ?we investigate why this is the case. We discover that the extreme ?foreground-background class imbalance encountered ?during training of dense detectors is the central cause. We ?propose to address this class imbalance by reshaping the ?standard cross entropy loss such that it down-weights the ?loss assigned to well-classified examples. Our novel Focal ?Loss focuses training on a sparse set of hard examples and ?prevents the vast number of easy negatives from overwhelming ?the detector during training. To evaluate the effectiveness ?of our loss, we design and train a simple dense detector ?we call RetinaNet. Our results show that when trained with ?the focal loss, RetinaNet is able to match the speed of previous ?one-stage detectors while surpassing the accuracy of ?all existing state-of-the-art two-stage detectors. Code is?at: https://github.com/facebookresearch/Detectron.
? ? ? ?迄今為止,精度最高的目標檢測器是基于R-CNN推廣的兩階段方法,其中分類器應用于稀疏的一組候選對象位置。相比之下,對可能的目標位置進行常規(guī)、密集采樣的單級探測器有可能更快、更簡單,但迄今仍落后于兩級探測器的精度。在本文中,我們將探討為什么會出現(xiàn)這種情況。我們發(fā)現(xiàn),在密集探測器訓練過程中所遇到的極端的前-后級不平衡是其主要原因。我們建議通過重新構(gòu)造標準的交叉熵損失來解決這個類的不平衡,這樣它就可以降低分配給分類良好的示例的損失。我們的新焦失聚焦訓練集中在一組稀疏的硬例子上,防止大量的容易的負片在訓練中壓倒檢測器。為了評估我們的損失的有效性,我們設(shè)計并訓練了一個簡單的高密度探測器,我們稱之為RetinaNet。我們的結(jié)果表明,當使用聚焦損失訓練時,視黃連能夠在超過現(xiàn)有所有最先進的兩級探測器精度的同時,與以前的單級探測器速度相匹配。代碼如下:https://github.com/facebookresearch/Detectron。
Conclusion ?
? ? ? ?In this work, we identify class imbalance as the primary ?obstacle preventing one-stage object detectors from ?surpassing top-performing, two-stage methods. To address ?this, we propose the focal loss which applies a modulating ?term to the cross entropy loss in order to focus learning ?on hard negative examples. Our approach is simple and ?highly effective. We demonstrate its efficacy by designing ?a fully convolutional one-stage detector and report extensive ?experimental analysis showing that it achieves stateof-the-art ?accuracy and speed. Source code is available at https://github.com/facebookresearch/Detectron [12].
? ? ? ?在這項工作中,我們確定類不平衡是阻止單級對象檢測器超越性能最好的兩級方法的主要障礙。為了解決這個問題,我們提出了焦損失,它應用一個調(diào)制項的交叉熵損失,以便集中學習硬的負面例子。我們的方法簡單而高效。我們設(shè)計了一種全卷積單級檢測器來驗證其有效性,并報告了大量的實驗分析,結(jié)果表明它達到了最先進的精度和速度。源代碼可從https://github.com/facebookresearch/Detectron[12]獲得。

論文
Tsung-Yi Lin, Priya Goyal, Ross Girshick, KaimingHe, Piotr Dollár.
Focal Loss for Dense Object Detection. ICCV 2017.
https://arxiv.org/abs/1708.02002

?

0、實驗結(jié)果

1、RetinaNet-50 VS?RetinaNet-101

? ? ? ? 在COCO數(shù)據(jù)集上,作者提出的RetinaNet-101-800模型,可以達到37.8mAP可超過其他以前提出的單階段檢測方法,并且檢測速度是198ms。

2、在COCO test-dev上——分別與單階段、兩階段模型比較

? ? ?目標檢測單模型結(jié)果(邊界框AP),與COCO test-dev的最新技術(shù)相比。RetinaNet可以達到40.8mAP,甚至可以超過兩階段方法。
注:該表展示了RetinaNet-101-800模型的結(jié)果,該模型經(jīng)過尺度抖動訓練。模型取得了最佳成績,超越了其它單階段和兩階段模型。

?

1、RetinaNet算法的特點及其貢獻

  • 找到妨礙單階段目標檢測器實現(xiàn)高準確度的主要原因:
    -訓練期間的前景-背景之間的類別不平衡
  • 設(shè)計焦點損失(Focal Loss) 來解決這種類別不平衡問題,降低分配給分類良好例子的損失。
  • 提出了單階段RetinaNet網(wǎng)絡(luò)架構(gòu),使用了焦點損失和多尺度特征金字塔。

?

?

RetinaNet算法的架構(gòu)詳解

更新……

?

DL之RetinaNet:RetinaNet算法的架構(gòu)詳解

?

?

?

?

RetinaNet算法的案例應用

更新……

DL之RetinaNet:基于RetinaNet算法(keras框架)利用resnet50_coco數(shù)據(jù)集(.h5文件)實現(xiàn)目標檢測

?

?

?

?

?

《新程序員》:云原生和全面數(shù)字化實踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀

總結(jié)

以上是生活随笔為你收集整理的DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。