【论文阅读笔记】Ocean: 目标感知的Anchor-free实时跟踪器,速度70+FPS!刚开源(更新中)
https://mp.weixin.qq.com/s/vLO8xgSooM3aHWEeZS1RrQ
Ocean:目標感知的Anchor-free實時跟蹤器,表現SOTA!
性能優于SiamRPN++、DiMP等網絡,速度可高達70+ FPS!
論文鏈接:
https://arxiv.org/pdf/2006.10721.pdf
代碼剛剛開源!
https://github.com/researchmm/TracKit
作者團隊:中科院&微軟
文章目錄
- 摘要
- Introduction
- 目標感知 分類網絡
- 特征對齊模塊(feature sampling locations)
摘要
傳統方法的缺點: 值在正樣本 anchor boxes 上訓練。
本文提出:
1、 一個網絡結構: 目標感知無錨框
2、 不微調參考anchor boxex, 直接預測模板 位置和尺度,使用無錨方式。
3、一種特征校準模塊, 從預測的bounding box 里面學習預測的 目標。
Introduction
先介紹了 Siamese 系列 , RPN 的引入, 然后說明了 該系列的重要缺漏。
發現問題:
只關注 anchor 正樣本 IoU >=0.6 的, 忽略了 在box 中 , 目標很小的情況。
會跟蹤失敗, 當分類結果不可信的時候。 例如: 由于累計誤差, 預測的目標會不可信。
提出問題 : 能否 設計一個 bounding-box 回歸網絡, 能矯正不精確的預測?
網絡結構:
1、 目標感知 分類網絡 : 判斷一個 region 屬于前景還是背景
2、bounding-box 回歸網絡: 預測 目標的每個像素到 GT box 的是個邊的距離。
回歸網絡預測出的 結果 , 可以分類網絡 區分前景背景。
? 為什么 要預測 目標到4個邊的距離??
: 每個點 對
29:21 : 長寬比設置的不好
free- 直接對點, 每個點直接進行像素級別的回歸, 對4個邊界進行回歸, 會直接一點。
?由于 每個GT 中的像素被訓練好了, 回歸網絡 定位目標 甚至, 當只有一小塊區域被識別為前景時, 回歸網絡也能定位目標?
目標感知網絡,需要學習一個 Object-ware Feature , 從 預測好的 bounding box 中 學習得到, 用于分類。
目標感知 分類網絡
特征對齊模塊(feature sampling locations)
特征對齊模塊干啥啦???
保證了 采樣在預測區域內制定, 適應了目標尺度和位置變化。
(采樣??在哪兒采樣??)
34:
模板更新。
模塊用。
改進
CRPN
特征融合SSD
總結
以上是生活随笔為你收集整理的【论文阅读笔记】Ocean: 目标感知的Anchor-free实时跟踪器,速度70+FPS!刚开源(更新中)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 2020年全球及中国干细胞医疗行业发展现
- 下一篇: 从零开始的ZYNQ学习(基于矿卡EBAZ