[论文笔记]CVPR2017_Joint Detection and Identification Feature Learning for Person Search
Title:?Joint Detection and Identification Feature Learning for Person Search;
- aXiv上該論文的第一個版本題目是 End-to-End Deep Learning for Person Search
Authors:?Tong Xiao1*?; Shuang Li1*?; Bochao Wang2?; Liang Lin2;? Xiaogang Wang1
Affilations: 1.The Chinese University of Hong Kong; 2.Sun Yat-Sen University
Paper?Code
第一遍看的時候看的是第一個版本,只簡單地掃了一眼結(jié)構(gòu)圖,覺得就是對faster r-cnn做了小修,而且沒有OIM loss,覺得創(chuàng)新性一般。然后發(fā)現(xiàn)好幾篇后來的文章都用了OIM loss,回過頭來再細(xì)看文章才發(fā)現(xiàn)文章有很多有意思的地方。慚愧!
Motivation
person re-id問題往往是用已經(jīng)cropped的行人圖像塊進(jìn)行檢索,判斷query和gallary中的圖像是否是同一個identity。這里面存在幾個問題:
①現(xiàn)實中檢索都是直接從原始場景圖像中實現(xiàn),而不是利用detection之后的cropped image;
②很多數(shù)據(jù)集都是手動標(biāo)注的框,實際上detector的檢測精度以及是否存在漏檢都會對行人重識別的結(jié)果造成影響。
因此,作者提出端到端的person search思想,將detection和re-id問題融在一起。
模型
- 網(wǎng)絡(luò)的輸入是整張圖像;
- pedestrian proposal net:輸入經(jīng)過ResNet-50的第一個部分(conv1-conv4_3)之后輸出1024d的feature maps(大小是原輸入的1/16);類似于RPN,該feature map先經(jīng)過一個$512\times3\times3$的卷積,得到的特征每個位置的9個anchors分別送入一個softmax classifier(person/non-person)和linear layer(bbox regression);bbox經(jīng)過NMS,得到128個final proposals;
- identification net:每個proposal經(jīng)過ROI pooling得到$1024\times14\times14$的特征,然后送入ResNet-50的第二個部分(conv4_4-conv5_3),經(jīng)過一個GAP(global average pooling)得到一個1024維的feature map;這個1024 feature map一分為三:①softmax二分類;②linear regression位置回歸;③映射成一個256維、l2 normalized的子控件,實際上是一個FC層,得到256d的id-feat,inference階段id-feat用來計算consine similarity,training階段用來計算OIM loss。
Online Instance Matching Loss(OIM LOSS)
注意是用所有final proposals的256d id-feat計算OIM loss。
訓(xùn)練集中有$L$個labeled identities,賦予他們class-id(1到$L$);也有許多unlabeled identities;還有許多背景和錯誤信息。OIM只考慮前兩種。
做法:
- 對于labeled identities: 記mini-batch中的一個labeled identity為$x\in\mathbb{R}^D$,$D$是特征維度。線下計算和存儲一個lookup table(LUT)$V\in\mathbb{R}^{D \times L}$,里面存儲著所有l(wèi)abeled identities的id-feat。
- 前向階段,用$V^Tx$計算mini-batch中的樣本和所有l(wèi)abeled identities之間的余弦相似性。
- 后向階段,如果目標(biāo)的class-id是$t$,那么用$v_t \leftarrow \gamma v_t+(1-\gamma)x$更新LUT的第$t$列,其中$r\in[0,1]$不明白為什么這么更新
- 對于unlabeled identities,由于數(shù)量不等,作者用了一個循環(huán)隊列來存儲$U\in\mathbb{R}^{D \times Q}$,$Q$是隊列空間大小。同樣用$U^Tx$來計算mini-batch中樣本和隊列中unlabeled identities的余弦相似性。每次循環(huán),將新的feature vector push,pop一個舊的,保證隊列大小不變。
- 基于上述結(jié)構(gòu),$x$被認(rèn)作class-id $i$的概率用softmax函數(shù)計算
- 同樣,被認(rèn)作第$i$個unlabeled identity的概率是
- OIM objective是最大化log似然的期望
- 求導(dǎo)是
為什么不用softmax loss直接分類?
- 一是類別太多,而每類的正樣本太少,使得訓(xùn)練很難
- 二是無法利用unlabeled identities,因為他們沒有標(biāo)簽
Dataset
作者提出了新的person search的數(shù)據(jù)集,包含street view和視頻截圖,即CUHK-SYSY
Evaluation Protocols and Metrics
person search很自然地繼承了detection和re-ID的評價指標(biāo),cumulative?matching characteristics (CMC top-K) 和mean averaged?precision (mAP)。這里要注意和person re-id中這兩個指標(biāo)的異同。
CMC
原文:a matching is counted if there is at?least one of the top-K predicted bounding boxes overlaps?with the ground truths with intersection-over-union (IoU)?greater or equal to 0.5.
這里相對好理解,對于輸出的bbox,與GT的IoU>0.5的算作candidates,然后和re-id一樣計算top K中 是否包含,包含則算做匹配上。對于誤檢或者漏檢不管。
mAP
原文:(MAP)is inspired from?the object detection tasks. We follow the ILSVRC object?detection criterion [29] to judge the correctness of predicted?bounding boxes. An averaged precision (AP) is calculated?for each query based on the precision-recall curve, and then?we average the APs across all the queries to get the final?result.
這個和reid的mAP應(yīng)該有較大區(qū)別;應(yīng)該是對每個query相當(dāng)于一類,求detection的AP
轉(zhuǎn)載于:https://www.cnblogs.com/xiaoaoran/p/11125791.html
總結(jié)
以上是生活随笔為你收集整理的[论文笔记]CVPR2017_Joint Detection and Identification Feature Learning for Person Search的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 在线诊断工具arthas (window
- 下一篇: HBase性能优化总结