日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人文社科 > 生活经验 >内容正文

生活经验

度量学习:ArcFace算法和工程应用总结

發(fā)布時(shí)間:2023/11/27 生活经验 68 豆豆
生活随笔 收集整理的這篇文章主要介紹了 度量学习:ArcFace算法和工程应用总结 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

目錄

前言

1 度量學(xué)習(xí)簡(jiǎn)介

2 ARCFace介紹

3 實(shí)際應(yīng)用時(shí)的探討

探討1:類似于人臉識(shí)別這樣的應(yīng)用,從0到落地應(yīng)用的大概流程是怎樣的?

探討2:怎么評(píng)估這個(gè)特征提取器網(wǎng)絡(luò)訓(xùn)練好了?

探討3:如何評(píng)估模型或項(xiàng)目效果?


前言

  • 需要的基礎(chǔ):了解深度學(xué)習(xí)分類器原理。
  • 主題:以深度學(xué)習(xí)中的ArcFace算法為案例,獲得對(duì)度量學(xué)習(xí)領(lǐng)域舉一反三的領(lǐng)悟。

1 度量學(xué)習(xí)簡(jiǎn)介

度量學(xué)習(xí)(Metric Learning)通俗的說(shuō)就是相似度學(xué)習(xí)。例如,如果要計(jì)算兩張人臉圖片的相似度,如何度量圖片之間的相似度,并使得不同人的人臉圖片相似度小而相同人的人臉圖片相似度大就是度量學(xué)習(xí)的目標(biāo)。

綜上,以人臉識(shí)別(不是人臉檢測(cè))為例子,用程序和算法實(shí)現(xiàn)此功能,要解決3個(gè)問(wèn)題:

  1. 用什么東西作為某一個(gè)人的人臉的特征基準(zhǔn)?
    1. 答案:因?yàn)椴煌呐臄z視角、不同的表情、不同的光照、不同階段的年齡等都會(huì)導(dǎo)致人臉形態(tài)和細(xì)節(jié)發(fā)生較大變化,所以,用一張標(biāo)準(zhǔn)人臉圖像并不能作為某個(gè)人的特征基準(zhǔn)。在ARCFace算法中,用一個(gè)高維度向量(如1x512)來(lái)定義和存儲(chǔ)他的人臉信息。類似于DNA這種編碼方式能夠存儲(chǔ)人類的形態(tài)和細(xì)節(jié)差異。當(dāng)然,這種建模解決問(wèn)題方式,肯定讓人還有很多疑問(wèn),這里不細(xì)究,它只是當(dāng)前科技發(fā)展中實(shí)踐出來(lái)的SOTA方法而已。
  2. 如何獲得這種特征基準(zhǔn)?
    1. 答案:卷積神經(jīng)網(wǎng)絡(luò)能夠提取圖像的特征,既然如此,我們就可以用大量帶標(biāo)注的訓(xùn)練樣本,外加誤差度量公式,以及損失函數(shù),去訓(xùn)練這個(gè)神經(jīng)網(wǎng)絡(luò)特征提取器把單個(gè)人的所有人臉圖像轉(zhuǎn)換成用一個(gè)特征向量去表示
  3. 有了基準(zhǔn),怎么計(jì)算相似度值?
    1. 答案:最簡(jiǎn)單的度量方法,就是計(jì)算特征向量每一維度距離差的平方和。

2 ARCFace介紹

3 實(shí)際應(yīng)用時(shí)的探討

探討1:類似于人臉識(shí)別這樣的應(yīng)用,從0到落地應(yīng)用的大概流程是怎樣的?

  1. 案例假設(shè):假設(shè)為一個(gè)小區(qū)或一個(gè)公司搭建一個(gè)人臉識(shí)別門禁系統(tǒng)。
  2. 第1步——訓(xùn)練人臉特征提取器:使用開源人臉數(shù)據(jù)集,基于ARCFace這樣的度量學(xué)習(xí)算法,訓(xùn)練好一個(gè)特征提取器(如resnet,輸入一張人臉圖,輸出512維度特征向量)。
  3. 第2步——建庫(kù):小區(qū)所有用戶提供1張或多張人臉相片,把每個(gè)人的相片輸入特征提取器,轉(zhuǎn)換成一個(gè)512維度的向量,把這個(gè)特征向量存儲(chǔ)在數(shù)據(jù)庫(kù)中,與人員信息綁定,作為這個(gè)人的基準(zhǔn)特征向量。
  4. 第3步——使用:建好庫(kù)后,后續(xù)這個(gè)用戶刷臉門禁時(shí),圖像會(huì)送入ARCFace算法,提取成一個(gè)512維度的特征向量,然后這個(gè)特征向量會(huì)和系統(tǒng)人臉數(shù)據(jù)庫(kù)中所有用戶的基準(zhǔn)人臉特征向量進(jìn)行度量(使用矩陣計(jì)算,哪怕是千萬(wàn)級(jí)用戶,普通電腦也可在0.1秒內(nèi)度量計(jì)算完畢)。如果發(fā)現(xiàn)與人臉數(shù)據(jù)庫(kù)中某個(gè)人的相似度值超過(guò)閾值(這個(gè)閾值的選擇,也是工程應(yīng)用的關(guān)鍵),即表示此刻刷臉的人,就是小區(qū)用戶。

探討2:怎么評(píng)估這個(gè)特征提取器網(wǎng)絡(luò)訓(xùn)練好了?

  1. 要滿足兩個(gè)條件:
    1. 第一:同一個(gè)人的不同照片輸入特征提取器網(wǎng)絡(luò),得到的特征向量,通過(guò)距離度量公式,它們的距離差很小。
    2. 第二:不同人的照片輸入特征提取器網(wǎng)絡(luò),得到的特征向量,通過(guò)距離度量公式,它們的距離差很大。

探討3:為什么卷積輸出特征圖或全連接層的輸出結(jié)果能代表某一個(gè)類的信息?

網(wǎng)絡(luò)學(xué)會(huì)的,當(dāng)網(wǎng)絡(luò)訓(xùn)練好后,這些位置的輸出結(jié)果可以編碼某一類的“全部”信息。具體可在http://scs.ryerson.ca/~aharley/vis/conv/?中體驗(yàn),通過(guò)手寫不同的“1”,你會(huì)發(fā)現(xiàn),最后一個(gè)全連接層的高亮區(qū),基本變化不大,這就表示,只要輸入圖是“1”字,那么全連接層的結(jié)果基本變動(dòng)不大。

探討4:如何評(píng)估模型或項(xiàng)目效果?

以XXX度量為案例,流程如下:

備注:

  • train集和val集由103人構(gòu)成,每個(gè)人大概幾千張XXX圖像。
  • 第104號(hào)、105號(hào)人數(shù)據(jù)不參與模型的訓(xùn)練,大概幾十張XXX圖像。

總結(jié)

以上是生活随笔為你收集整理的度量学习:ArcFace算法和工程应用总结的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。