日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Deep Ranking for Person Re-identification via Joint Representation Learning

發(fā)布時間:2025/4/16 编程问答 55 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Deep Ranking for Person Re-identification via Joint Representation Learning 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

簡介

本文提出了一個統(tǒng)一的framework,同時最大化特征和Metric的優(yōu)勢。其實這并不是新的思想,然而作者的創(chuàng)新在于:
(1)強(qiáng)調(diào)Joint representation,將兩張Images拼成一張輸入,force網(wǎng)絡(luò)學(xué)習(xí)判別特征,并在后面的實驗中驗證這種聯(lián)合表示的優(yōu)勢;
(2)不同于以往的得到的是單張圖片的feature,測試需要求probe 和gallery 間的Euclidean 和cosine,他們輸出的直接是圖片間的相似度;
(3)本文的最大創(chuàng)新,應(yīng)當(dāng)是提出了一個learning-to-rank的算法,如果正匹配排在了最前面則不產(chǎn)生loss,排的越靠后loss越大。若rank unit中,只有一個負(fù)sample的話,本質(zhì)上就成為了傳統(tǒng)的triplet loss。作者最后實驗中采用了1:2的正負(fù)比例進(jìn)行訓(xùn)練。
(4)本文的看點(diǎn):
a.采用了Alexnet的網(wǎng)絡(luò)架構(gòu),對于該網(wǎng)絡(luò)架構(gòu)的分析值得一看(如:max-pooling增強(qiáng)對小變化的魯棒性,pooling后的LRN幫助產(chǎn)生對光照和對比度魯棒的特征;Dropout減少過擬合);
Alexnet:
http://blog.csdn.net/sunbaigui/article/details/39938097
b.實驗分析:一方面和state-of-art methods, cnn-based比,還評估了在open-world和across datasets的性能;另一方面是自我分析。
##筆記
E:\CSDN\joint_rank

總結(jié)

以上是生活随笔為你收集整理的Deep Ranking for Person Re-identification via Joint Representation Learning的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。