日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

ECCV 2018 | CornerNet:目标检测算法新思路

發(fā)布時間:2025/3/8 目标检测 59 豆豆
生活随笔 收集整理的這篇文章主要介紹了 ECCV 2018 | CornerNet:目标检测算法新思路 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

本文為極市平臺原創(chuàng)文章,轉(zhuǎn)載請附原文鏈接:
https://blog.csdn.net/Extremevision/article/details/82799308
——————————————————————————————————————————————

作者:陳泰紅
論文地址:https://arxiv.org/abs/1808.01244


1 目標檢測算法概述

CornerNet是密歇根大學Hei Law等人在發(fā)表ECCV2018的一篇論文,主要實現(xiàn)目標檢測。在開始介紹CornerNet論文之前,先復習一下目標檢測領(lǐng)域的主流算法,因為作者提出的算法和主流算法很多不一樣。


深度方法主要分為one-stage(e.g. SSD, YOLO)和two-stage(e.g. RCNN系列)兩種。single-stage直接在圖片上經(jīng)過計算生成detections。two-stage先提取proposal, 再基于proposal做二次修正。相對來說single-stage速度快, 精度低. 而two-stage精度高, 速度慢。


2012年, 基于深度學習CNN網(wǎng)絡(luò)的AlexNet在ILSVRC競賽的ImageNet上大放異彩, 2014年Ross Girshick利用CNN成功取代了HOG、DPM等特征提取, ross等人把目標檢測分成了三個步驟,首先是對圖像提取detection proposal,其實就是圖像中一些可能是檢測物體的區(qū)域,然后使用cnn對這些proposal進行特征提取,最后用svm對這些提取到的特征進行分類,從而完成檢測的任務(wù),這是 Two-stage object detectors鼻祖。


從RCNN、SPPNet到fast RCNN,再到Faster RCNN,目標檢測的三個步驟(區(qū)域選擇,特征提取,分類回歸)被統(tǒng)一到一個深度網(wǎng)絡(luò)框架之內(nèi),大大提高了運行速度。FCN,FPN, RoI Align, Mask Branch等技術(shù)把Faster R-CNN往前極大的推進。之后又出現(xiàn)了FCN, IoU, NMS,ION,FPN, RoI Align和Mask Branch等技術(shù)淵源和YOLO, SSD, AttratioNet, G-CNN, R-FCN, Mask R-CNN, Mask ^X R-CNN等的進化關(guān)系!



圖 1 Faster RCNN算法框架


one-stage檢測算法,其不需要region proposal階段,直接產(chǎn)生物體的類別概率和位置坐標值,經(jīng)過單次檢測即可直接得到最終的檢測結(jié)果,因此有著更快的檢測速度,比較典型的算法如YOLO,SSD,Retina-Net。YOLO 使用了分治思想,將輸入圖片分為 SxS 的網(wǎng)格,不同網(wǎng)格用性能優(yōu)良的分類器去分類。SSD 將 YOLO 和 Anchor 思想融合起來,并創(chuàng)新使用 Feature Pyramid 結(jié)構(gòu)。YOLO, YOLO-v2, YOLO-v3, SSD、DSSD等實時模型的推出, 讓目標檢測變得更快。


2 Motivation

CornerNet認為Two-stage目標檢測最明顯的缺點是 Region Proposal 階段需要提取的anchor boxes。(1)、提取的anchor boxes數(shù)量較多,比如DSSD使用40k, RetinaNet使用100k,anchor boxes眾多造成anchor boxes征服樣本均衡。(2)、anchor boxes需要調(diào)整很多超參數(shù),比如anchor boxes數(shù)量、尺寸、比率,影響模型的訓練和推斷速率。


論文提出one-stage的檢測方法,舍棄傳統(tǒng)的 anchor boxes思路,提出CornerNet模型預測目標邊界框的左上角和右下角一對頂點,即 使用單一卷積模型生成熱點圖和連接矢量:所有目標的左上角和所有目標的右下角熱點圖,每個頂點的連接矢量(embedding vector)。

圖 2 CornerNet框架


作者的思路其實來源于一篇多人姿態(tài)估計的論文[1]。基于CNN的2D多人姿態(tài)估計方法,通常有2個思路(Bottom-Up Approaches和Top-Down Approaches):

(1)Top-Down framework,就是先進行行人檢測,得到邊界框,然后在每一個邊界框中檢測人體關(guān)鍵點,連接成每個人的姿態(tài),缺點是受人體檢測框影響較大,代表算法有RMPE。


(2)Bottom-Up framework,就是先對整個圖片進行每個人體關(guān)鍵點部件的檢測,再將檢測到的人體部位拼接成每個人的姿態(tài),缺點就是可能將,代表方法就是openpose。


論文的第一個創(chuàng)新是講目標檢測上升到方法論,基于多人姿態(tài)估計的Bottom-Up思想,首先同時預測定位框的頂點對(左上角和右下角)熱點圖和embedding vector,根據(jù)embedding vector對頂點進行分組。


論文第二個創(chuàng)新是提出了corner pooling用于定位頂點。自然界的大部分目標是沒有邊界框也不會有矩形的頂點,依top-left corner pooling 為例,對每個channel,分別提取特征圖的水平和垂直方向的最大值,然后求和。



圖 3 corner pooling計算方式


論文認為corner pooling之所以有效,是因為(1)目標定位框的中心難以確定,和邊界框的4條邊相關(guān),但是每個頂點只與邊界框的兩條邊相關(guān),所以corner 更容易提取。(2)頂點更有效提供離散的邊界空間,實用O(wh)頂點可以表示O(w2h2) anchor boxes。


論文的第三個創(chuàng)新是模型基于hourglass架構(gòu),使用focal loss[5]的變體訓練神經(jīng)網(wǎng)絡(luò)。


論文提出的CornerNet在MS COCO測試驗證,達到42.1% AP,完勝所有的one-stage目標檢測方法,同時在git公布基于PyTorch源碼:

https://github.com/umich-vl/CornerNet


3 Architecture

3.1 Overview


圖 4CornerNet模型架構(gòu)


如圖 4所示,CornerNet模型架構(gòu)包含三部分,Hourglass[7] Network,Bottom-right corners&Top-left Corners Heatmaps和Prediction Module。

Hourglass Network是人體姿態(tài)估計的典型架構(gòu),論文堆疊兩個Hourglass Network生成Top-left和Bottom-right corners,每一個corners都包括corners Pooling,以及對應(yīng)的Heatmaps, Embeddings vector和offsets。embedding vector使相同目標的兩個頂點(左上角和右下角)距離最短, offsets用于調(diào)整生成更加緊密的邊界定位框。

3.2Detecting Corners
論文模型生成的heatmaps包含C channels(C是目標的類別,沒有background channel),每個channel是二進制掩膜,表示相應(yīng)類別的頂點位置。


對于每個頂點,只有一個ground-truth,其他位置都是負樣本。在訓練過程,模型減少負樣本,在每個ground-truth頂點設(shè)定半徑r區(qū)域內(nèi)都是正樣本,這是因為落在半徑r區(qū)域內(nèi)的頂點依然可以生成有效的邊界定位框,論文中設(shè)置IoU=0.7。


pcij表示類別為c,坐標是(i,j)的預測熱點圖,ycij表示相應(yīng)位置的ground-truth,論文提出變體Focal loss表示檢測目標的損失函數(shù):



由于下采樣,模型生成的熱點圖相比輸入圖像分辨率低。論文提出偏移的損失函數(shù),用于微調(diào)corner和ground-truth偏移。



3.3Grouping Corners
輸入圖像會有多個目標,相應(yīng)生成多個目標的左上角和右下角頂點。對頂點進行分組,論文引入[1] Associative Embedding的思想,模型在訓練階段為每個corner預測相應(yīng)的embedding vector,通過embedding vector使同一目標的頂點對距離最短,既模型可以通過embedding vector為每個頂點分組。


模型訓練Lpull損失函數(shù)使同一目標的頂點進行分組, Lpush損失函數(shù)用于分離不同目標的頂點。


3.4Hourglass Network
Hourglass Network同時包含了bottom-up(from high resolutions to low resolutions)和top-down (from low resolutions to high resolutions)。而且,整個網(wǎng)絡(luò)有多個bottom-up和top-down過程。這樣設(shè)計的目的是在各個尺度下抓取信息。針對目標檢測任務(wù),論文調(diào)整了Hourglass一些策略。


4 Experiments

論文的訓練損失函數(shù)包含了第三部分介紹的4個損失函數(shù),α, β 和γ用于調(diào)整相應(yīng)損失函數(shù)的權(quán)重:




模型訓練過程中使用10個Titan X (PASCAL) GPUs,詳細的訓練參數(shù)可參考原論文。模型的推斷時間是244ms/ image (Titan XPASCAL GPU)。

CornerNet相比其它one-stage目標檢測算法,MS COCO數(shù)據(jù)集測試AP有明顯提高,雖然性能接近于Two-stage檢測算法,但是推斷時間無明顯優(yōu)勢。



Table 4MS COCO test-dev數(shù)據(jù)集性能對比

5 Discussion

個人觀點:CornerNet創(chuàng)新來自于多人姿態(tài)估計的Bottom-Up思路,預測corner的heatmps,根據(jù)Embeddings vector對corner進行分組,其主干網(wǎng)絡(luò)也來自于姿態(tài)估計的Hourglass Network。模型的源碼在github已經(jīng)公布,可以放心大膽的研究測試。


CV的很多任務(wù)之間是相通的,CVPR2018 best paper [8]也印證這一觀點,在不同的子領(lǐng)域?qū)ふ蚁嗨菩?#xff0c;遷移不同領(lǐng)域的算法,是CV行業(yè)一個趨勢。


多人姿態(tài)估計的Hourglass Network算法也不斷改進中,其實論文模型的推斷速率受限于Hourglass Network的特征提取,有志青年也可以沿著這個思路取得更好的性能。

以上僅為個人閱讀論文后的理解、總結(jié)和思考。觀點難免偏差,望讀者以懷疑批判態(tài)度閱讀,歡迎交流指正。

6 參考文獻

Newell, A., Huang, Z., Deng, J.: Associative embedding: End-to-end learning for joint detection and grouping. In: Advances in Neural Information Processing Systems. pp. 2274{2284 (2017)

Hei Law, Jia Deng :CornerNet: Detecting Objects as Paired Keypoints.ECCV2018

Girshick, R.: Fast r-cnn. arXiv preprint arXiv:1504.08083 (2015)

Girshick, R., Donahue, J., Darrell, T., Malik, J.: Rich feature hierarchies for accurate object detection and semantic segmentation. In: Proceedings of the IEEE conference on computer vision and pattern recognition. pp. 580{587 (2014)

Lin, T.Y., Goyal, P., Girshick, R., He, K., Doll′ar, P.: Focal loss for dense object detection. arXiv preprint arXiv:1708.02002 (2017)

Liu, W., Anguelov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C.Y., Berg, A.C.:SSD: Single shot multibox detector. In: European conference on computer vision.pp. 21{37. Springer (2016)

Newell, A., Yang, K., Deng, J.: Stacked hourglass networks for human pose estimation. In: European Conference on Computer Vision. pp. 483{499. Springer (2016)

Amir R. Zamir , Alexander Sax Taskonomy: Disentangling Task Transfer Learning.CVPR2018

總結(jié)

以上是生活随笔為你收集整理的ECCV 2018 | CornerNet:目标检测算法新思路的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 天天操天天干天天爽 | 国产日韩欧美中文字幕 | 欧美综合激情 | 免费观看的黄色网址 | 爱综合网| 成人在线视屏 | 成人免费视频网站在线看 | 欧美视频在线免费看 | 精品在线视频一区二区三区 | 麻豆av一区二区三区在线观看 | 双性人做受视频 | 床上激情网站 | 免费毛片在线 | 日韩中文字幕影院 | 日本黄色片网址 | 影音先锋男人天堂 | 久久99久久99精品免观看粉嫩 | 国产成人日韩 | 日本不卡一区视频 | 99在线精品免费视频 | 中文字幕色片 | 成人国产精品免费观看视频 | 国产一区二区在线视频 | 传媒av在线 | av在线一 | 精品免费视频 | 国产白丝精品91爽爽久久 | 天堂在线资源网 | 国产精品免费在线 | 羞羞色视频 | 日本美女性爱视频 | 中文字幕三级视频 | 男插女在线观看 | 久久久久亚洲AV成人 | 无码粉嫩虎白一线天在线观看 | 求一个黄色网址 | 开心激情婷婷 | 成人你懂的 | 黄网在线免费观看 | 日p视频在线观看 | 亚洲乱轮| 奇米影视一区二区三区 | 国产成人在线观看 | 阿v免费在线观看 | 欧美日韩中文国产 | 亚洲AV无码国产精品国产剧情 | 欧美一区二区激情视频 | 午夜在线视频观看 | 97国产在线播放 | 高潮一区二区三区 | 欧美区在线 | 超碰在线观看免费版 | 成年人的免费视频 | 亚洲熟妇无码av在线播放 | 免费v片在线观看 | 亚洲AV成人无码一二三区在线 | 亚洲中文字幕视频一区 | 致命弯道8在线观看免费高清完整 | 国产日韩精品suv | 88久久精品无码一区二区毛片 | 成人污污视频 | 在哪里看毛片 | www.av在线| 亚洲资源在线播放 | 成人欧美视频 | 国产永久精品 | 97成人精品| 天天插美女 | 欧美日韩在线影院 | 久久人人爽天天玩人人妻精品 | 91蝌蚪九色| 四川黄色一级片 | 国 产 黄 色 大 片 | 性少妇videosexfre | 无码精品视频一区二区三区 | 韩国三级丰满少妇高潮 | 视频一区中文字幕 | 不卡视频在线播放 | 国产精品免费视频观看 | 日本色视 | 日本综合视频 | 国产午夜精品久久久久 | 无限资源日本好片 | 99久久久无码国产精品免费 | 三级在线观看 | 爱搞逼综合| 欧美网| 男女xx网站 | 九草视频在线 | 日韩在线一二三区 | 国产免费av片在线观看 | 国产伊人网 | 免费在线看黄色片 | 麻豆成人在线 | 精品久久香蕉国产线看观看亚洲 | 97人妻精品一区二区三区软件 | 欧美xxxx8888 | 天天操人人爽 | 视频黄色免费 |