日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

深度步态识别综述(一)

發(fā)布時(shí)間:2024/3/24 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度步态识别综述(一) 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

文章目錄

  • Deep Gait Recognition: A Survey
      • Abstract
    • INTRODUCTION
    • REVIEW METHODOLOGY
    • TEST PROTOCOLS AND DATASETS
      • Protocols
      • Datasets
    • 參考文獻(xiàn)

Deep Gait Recognition: A Survey


Abstract


步態(tài)識(shí)別是一種極具吸引力的生物特征識(shí)別方法,旨在根據(jù)人走路的方式來(lái)識(shí)別人。自2015年以來(lái),深度學(xué)習(xí)通過(guò)自動(dòng)學(xué)習(xí)辨別性特征的能力重塑了該領(lǐng)域的研究格局。基于深度學(xué)習(xí)的步態(tài)識(shí)別方法目前在該領(lǐng)域占據(jù)主導(dǎo)地位,并且促進(jìn)了實(shí)際應(yīng)用。本文全面概述了深度學(xué)習(xí)步態(tài)識(shí)別的突破和最新發(fā)展,涵蓋了廣泛的主題,包括數(shù)據(jù)集測(cè)試協(xié)議最先進(jìn)的解決方案挑戰(zhàn)未來(lái)的研究方向。首先概述了常用的步態(tài)數(shù)據(jù)集以及用于評(píng)估它們的原則。然后,本文提出了一種由四個(gè)獨(dú)立維度組成的新分類(lèi)法,即身體表征時(shí)間表征特征表征神經(jīng)架構(gòu),以幫助描述和組織該領(lǐng)域的研究現(xiàn)狀和文獻(xiàn)。在提出的分類(lèi)法之后,本文對(duì)使用深度學(xué)習(xí)的步態(tài)識(shí)別方法進(jìn)行了全面的綜述,并討論了它們的性能特點(diǎn)優(yōu)點(diǎn)局限性。最后,本文討論了當(dāng)前的挑戰(zhàn),并提出了步態(tài)識(shí)別未來(lái)研究的一些有希望的方向。


INTRODUCTION


\quad \quad步態(tài),被定義為人們走路的方式,包含了關(guān)于人類(lèi)受試者的相關(guān)線索。因此,它已被廣泛應(yīng)用于不同的應(yīng)用領(lǐng)域,如影響分析體育科學(xué)健康用戶(hù)識(shí)別。步態(tài)信息可以通過(guò)一些傳感方式來(lái)捕獲,例如附著在人體上的可穿戴傳感器,例如加速計(jì)陀螺儀以及力和壓力傳感器。非穿戴式步態(tài)識(shí)別系統(tǒng)主要使用視覺(jué),因此通常稱(chēng)為基于視覺(jué)的步態(tài)識(shí)別。這些系統(tǒng)使用成像傳感器捕捉步態(tài)數(shù)據(jù),而不需要受試者的合作,甚至可以從很遠(yuǎn)的距離采集。本文的重點(diǎn)是綜述主要依賴(lài)深度學(xué)習(xí)的基于視覺(jué)的步態(tài)識(shí)別系統(tǒng)。本文只關(guān)注基于視覺(jué)的步態(tài)識(shí)別,因?yàn)樽罱l(fā)表了一篇綜合性綜述文章,對(duì)基于穿戴的步態(tài)識(shí)別方法進(jìn)行了調(diào)查。

\quad \quad基于視覺(jué)的步態(tài)識(shí)別系統(tǒng)(以下僅稱(chēng)為步態(tài)識(shí)別)的性能可能會(huì)受到i)個(gè)人外觀變化的影響,例如攜帶手提包/背包或穿著諸如帽子或外套等衣物;ii)攝像機(jī)視角的變化;iii)遮擋因素,例如,在某些視角(也稱(chēng)為自遮擋)中,受試者身體的一部分被物體部分覆蓋,或者被受試者自身身體的一部分覆蓋;iv)環(huán)境的變化,例如復(fù)雜背景和高或低水平照明,這通常使分割和識(shí)別過(guò)程更加困難。

\quad \quad在過(guò)去的二十年中,許多步態(tài)識(shí)別方法被開(kāi)發(fā)用來(lái)解決上述問(wèn)題。近年來(lái),步態(tài)識(shí)別從非深度方法向基于深度學(xué)習(xí)的解決方案過(guò)渡的趨勢(shì)十分明顯。為了可視化這一趨勢(shì),作者畫(huà)了圖1,圖1顯示了2015年后發(fā)表的步態(tài)識(shí)別論文的數(shù)量。據(jù)觀察,2019年和2020年的大多數(shù)步態(tài)識(shí)別方法都是基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的。在圖2中,本文展示了一些最重要的步態(tài)識(shí)別方法的演變,以及它們?cè)?strong>CASIA-B(也許是最流行的步態(tài)識(shí)別數(shù)據(jù)集)上的相關(guān)準(zhǔn)確性。第一個(gè)步態(tài)識(shí)別方法于1997年提出,隨后于2008年提出了第一個(gè)用于步態(tài)識(shí)別的淺層神經(jīng)網(wǎng)絡(luò),它僅由一個(gè)輸入層、一個(gè)隱藏層和一個(gè)輸出層組成。2015年,該領(lǐng)域取得了重大突破,主要得益于深度神經(jīng)網(wǎng)絡(luò)的普及。2016年,基于6層卷積神經(jīng)網(wǎng)絡(luò)(CNN),提出了名為GaitNet的方法。2017年,提出了基于深度信念網(wǎng)絡(luò)(DBN)的DBNGait,并在CNNGait中融合了三種不同深度的CNN架構(gòu),用于步態(tài)識(shí)別。VGR-Net是2018年的重要貢獻(xiàn)之一,隨后在2019年引入了幾種重要方法,包括PoseGaitDisentangledGaitGaitSet,其中GaitSet達(dá)到了84.2%的最佳識(shí)別準(zhǔn)確率。2020年取得了顯著進(jìn)步,特別是出現(xiàn)了幾種高效方法,包括PartialRNNGaitPartGLNHMRGait3DCNNGait。目前在CASIA-B數(shù)據(jù)集上最先進(jìn)的結(jié)果是由3DCNNGait報(bào)告的,識(shí)別準(zhǔn)確率為90.4%。

\quad \quad到目前為止,幾篇調(diào)查論文10、11、12、13、14、36、37、38綜述了步態(tài)識(shí)別的最新進(jìn)展,其中一些論文,例如13、37、38,側(cè)重于非基于視覺(jué)的步態(tài)識(shí)別方法。關(guān)于基于視覺(jué)的步態(tài)識(shí)別的最新調(diào)查論文有10、11、12、14、36,僅涵蓋2018年年中之前發(fā)表的論文。盡管如此,如圖1和圖2所示,自2019年以來(lái),深度學(xué)習(xí)在步態(tài)識(shí)別方面取得了許多重大突破。此外,沒(méi)有一項(xiàng)調(diào)查[10]、[11]、[12]、[14]、[36]專(zhuān)門(mén)關(guān)注步態(tài)識(shí)別的深度學(xué)習(xí)方法。

\quad \quad本文調(diào)查了截至2021年1月底的步態(tài)識(shí)別的最新進(jìn)展,以系統(tǒng)的方式對(duì)深度步態(tài)識(shí)別方法的技術(shù)和性能方面提供了見(jiàn)解。在此背景下,我們首先提出了一種具有四個(gè)維度的新分類(lèi)法,即身體表征時(shí)間表征特征表征神經(jīng)結(jié)構(gòu),以幫助描述和組織可用的方法。根據(jù)本文提出的分類(lèi)法,對(duì)所有可用的深度步態(tài)識(shí)別方法進(jìn)行了全面的綜述,并對(duì)其特征和性能進(jìn)行了討論。作者已經(jīng)建立了特定的搜索協(xié)議,以確保其他學(xué)者能夠自信地在未來(lái)的研究中使用該綜述。

本文主要貢獻(xiàn)總結(jié)如下:

  • 提出了一種新的四維分類(lèi)法來(lái)描述和組織現(xiàn)有的深度步態(tài)識(shí)別方法。
  • 對(duì)深度步態(tài)識(shí)別方法的演變進(jìn)行了分類(lèi)指導(dǎo)的概述,其中大部分方法在以前的調(diào)查中沒(méi)有被概述。
  • 使用大規(guī)模公共步態(tài)數(shù)據(jù)集上報(bào)告的現(xiàn)有結(jié)果,對(duì)最新技術(shù)進(jìn)行了比較,深入了解了不同深度步態(tài)識(shí)別方法的有效性。
  • 概述了15個(gè)公開(kāi)的基于視覺(jué)的步態(tài)識(shí)別數(shù)據(jù)集及其相關(guān)的測(cè)試協(xié)議
  • 討論了一些公開(kāi)的挑戰(zhàn),并確定了重要的未來(lái)研究方向,這將對(duì)步態(tài)識(shí)別的研究人員有幫助。
  • \quad \quad綜述的其余部分結(jié)構(gòu)如下。首先描述了用于搜索收集論文和文獻(xiàn)中收集論文的系統(tǒng)方法。接下來(lái),在第3節(jié)中,將概述可用的步態(tài)數(shù)據(jù)集及其相關(guān)的測(cè)試協(xié)議。然后,在概述深度步態(tài)識(shí)別方法時(shí),使用這些數(shù)據(jù)集和協(xié)議來(lái)報(bào)告現(xiàn)有的性能結(jié)果。第4節(jié)介紹了本文提出的分類(lèi)法。接下來(lái),第5節(jié)綜述了深步態(tài)識(shí)別的最新進(jìn)展,并討論了近幾年來(lái)深步態(tài)識(shí)別的發(fā)展趨勢(shì)。最后,第6節(jié)討論了一些深層步態(tài)識(shí)別挑戰(zhàn),并確定了一些未來(lái)的研究領(lǐng)域。(概述了論文剩余部分的結(jié)構(gòu))


    REVIEW METHODOLOGY


    \quad \quad作者采用了特定的搜索協(xié)議,以確保其他學(xué)者能夠自信地在未來(lái)的研究中使用該綜述。為此,首先通過(guò)Google Scholar搜索引擎和數(shù)字圖書(shū)館,即IEEE XploreACM Digital LibraryScienceDirectCVF Open Access查找候選論文。搜索詞包括以下查詢(xún)的組合:“步態(tài)識(shí)別”、“步態(tài)識(shí)別”、“步態(tài)生物識(shí)別”、“神經(jīng)結(jié)構(gòu)”、“深度學(xué)習(xí)”和“深度表征”。然后,審查并過(guò)濾了搜索結(jié)果,從而排除了既沒(méi)有使用深度學(xué)習(xí)方法進(jìn)行步態(tài)識(shí)別,也沒(méi)有展示足夠技術(shù)清晰度/深度的論文。 為了更具體地說(shuō)明“清晰度/深度”標(biāo)準(zhǔn),排除了i)使用非視覺(jué)傳感器進(jìn)行步態(tài)識(shí)別的論文;ii)沒(méi)有提出新的解決方案;iii)使用非標(biāo)準(zhǔn)或私有數(shù)據(jù)集進(jìn)行績(jī)效評(píng)估;iv)沒(méi)有將其解決方案的性能與最新技術(shù)進(jìn)行比較。在其他模式與基于視覺(jué)的傳感器相結(jié)合的情況下,只研究了側(cè)重于基于視覺(jué)方面的技術(shù)解決方案。 (這段在說(shuō)作者如何查詢(xún)和篩選論文)

    \quad \quad本文對(duì)出版物的日期進(jìn)行了限制,只包括2014年之后的搜索結(jié)果,當(dāng)時(shí)深度神經(jīng)網(wǎng)絡(luò)首次被用于生物識(shí)別。然后,作者利用返回的結(jié)果進(jìn)行前向和后向搜索,分別確定引用過(guò)返回文章的其他資源以及返回文章所引用的參考文獻(xiàn)。對(duì)新確定的資源重復(fù)這一過(guò)程,直到我們收集到作者所知的最相關(guān)的論文。最終得到了一組使用深度學(xué)習(xí)進(jìn)行步態(tài)識(shí)別的出版物。

    (以上從兩個(gè)方面收集論文,一個(gè)是搜索引擎和數(shù)字圖書(shū)館中檢索,另一個(gè)是從收集到的文獻(xiàn)中進(jìn)一步檢索文獻(xiàn),進(jìn)而收集論文)


    TEST PROTOCOLS AND DATASETS


    Protocols

    \quad \quad步態(tài)識(shí)別解決方案的評(píng)估協(xié)議通常可分為受試者相關(guān)受試者無(wú)關(guān)。如圖3所示,在受試者相關(guān)協(xié)議中,訓(xùn)練集和測(cè)試集都包括來(lái)自所有受試者的樣本。然而,在受試者無(wú)關(guān)協(xié)議中,測(cè)試受試者與訓(xùn)練受試者是不相交的。在后一種協(xié)議下,測(cè)試數(shù)據(jù)被進(jìn)一步分為注冊(cè)集驗(yàn)證集,然后用在不相交的訓(xùn)練對(duì)象上學(xué)習(xí)到的模型來(lái)提取注冊(cè)集驗(yàn)證集的特征。最后,使用分類(lèi)器將驗(yàn)證特征與注冊(cè)特征進(jìn)行比較,以識(shí)別最相似的步態(tài)模式,并將它們標(biāo)記為來(lái)自相同的人。在步態(tài)識(shí)別中,受試者相關(guān)和受試者無(wú)關(guān)協(xié)議被廣泛采用。 例如,在TUM GAID數(shù)據(jù)集中,經(jīng)常使用受試者相關(guān)協(xié)議,而在CASIA-B和OU-MVLP大規(guī)模數(shù)據(jù)集中,則使用受試者無(wú)關(guān)協(xié)議。文獻(xiàn)中的步態(tài)識(shí)別結(jié)果都是使用rank-1識(shí)別精度進(jìn)行測(cè)量和表示的。

    Datasets

    \quad \quad為了評(píng)估步態(tài)識(shí)別系統(tǒng),收集了不同的數(shù)據(jù)集。這些數(shù)據(jù)集包括了與采集視角、環(huán)境條件和受試者外觀相關(guān)的各種參數(shù)。 一般來(lái)說(shuō),大數(shù)據(jù)集,無(wú)論是在樣本和參數(shù)的數(shù)量和分布上,都是人們所希望的,也是首選的,以使深度神經(jīng)網(wǎng)絡(luò)得到有效訓(xùn)練。本文在表1中概述了著名步態(tài)數(shù)據(jù)集的主要特征。這些特征包括數(shù)據(jù)的類(lèi)型和模式、受試者和序列的數(shù)量、視角的數(shù)量,以及每個(gè)數(shù)據(jù)集中包含的變化。為了顯示這些數(shù)據(jù)集的時(shí)間演變,本文按照表1中發(fā)布日期的順序?qū)@些數(shù)據(jù)集進(jìn)行了排序。 根據(jù)表1,CASIA-BCASIA-EOU-ISIR MVOU-MVLP涵蓋了最多的采集視角,而OU-ISIROU-ISIR LP BagOU-MVLP包含了最多的步態(tài)序列。 在下文中,作者概述了表1中提供的步態(tài)數(shù)據(jù)集以及相關(guān)的測(cè)試協(xié)議。

    \quad \quadCMU MoBo: The CMU Motion of Body (MoBo)數(shù)據(jù)集是文獻(xiàn)中第一個(gè)步態(tài)數(shù)據(jù)集,由25名在跑步機(jī)上行走的不同受試者的RGB輪廓數(shù)據(jù)組成。 此數(shù)據(jù)集涵蓋三個(gè)子集,包括慢速行走快速行走持球行走

    \quad \quadSOTON: SOTON數(shù)據(jù)集包含115名受試者的步態(tài)數(shù)據(jù)。所有的序列在室內(nèi)室外都被記錄下來(lái),用一個(gè)固定的攝像機(jī),捕捉沿著一條筆直的路徑行走的受試者。在跑步機(jī)上行走時(shí),從受試者身上獲取了室內(nèi)步態(tài)數(shù)據(jù)。不同的論文將該數(shù)據(jù)集劃分為不同的訓(xùn)練集和測(cè)試集,并且沒(méi)有預(yù)定義的測(cè)試協(xié)議可與該數(shù)據(jù)集一起使用。

    \quad \quadCASIA-A: CASIA-A數(shù)據(jù)集,包括20名受試者在室外環(huán)境中的步態(tài)序列。受試者沿著一條直線行走,三個(gè)攝像頭位于0。0^。0, 45?45^?45?, 和90?90^?90?。拍攝的步態(tài)視頻,平均每個(gè)序列90幀。跨視角測(cè)試協(xié)議是該數(shù)據(jù)集最廣泛使用的協(xié)議,其中測(cè)試協(xié)議使用所有可用視角進(jìn)行訓(xùn)練,不包括用于測(cè)試的視角。

    \quad \quadUSF HumanID: USF HumanID數(shù)據(jù)集是在HumanID步態(tài)挑戰(zhàn)的背景下收集的,包括122名在橢圓路徑上行走的受試者的戶(hù)外步態(tài)視頻。該數(shù)據(jù)集涵蓋了各種具有挑戰(zhàn)性的變化,包括攜帶公文包、在不同表面行走、穿著不同的鞋以及采集時(shí)間。數(shù)據(jù)是由左、右兩個(gè)攝像頭從兩個(gè)觀察角度采集的。評(píng)估研究已與數(shù)據(jù)集一起提供,該數(shù)據(jù)集考慮了與上述變化相關(guān)的 12 種不同測(cè)試協(xié)議。

    \quad \quadCASIA-B: CASIA-B數(shù)據(jù)集是使用最廣泛的步態(tài)數(shù)據(jù)集,包含124人的RGB和輪廓形式的多視角步態(tài)數(shù)據(jù)。從11個(gè)不同的視角進(jìn)行采集,范圍從0。0^。0180。180^。180,增量為18。18^。18。該數(shù)據(jù)集考慮了三種不同的行走條件,即正常行走(NM)、穿外套行走(CL)和攜包行走(BG),每個(gè)人每個(gè)視角分別有6、2和2個(gè)步態(tài)序列。 CASIA-B最常用的測(cè)試協(xié)議是受試者無(wú)關(guān)協(xié)議,該協(xié)議使用前74名受試者的數(shù)據(jù)進(jìn)行訓(xùn)練,其余50名受試者進(jìn)行測(cè)試。 然后將測(cè)試數(shù)據(jù)拆分為一個(gè)注冊(cè)集,其中包括NM步態(tài)數(shù)據(jù)中的前四個(gè)步態(tài)序列,驗(yàn)證集由其余序列組成,即每個(gè)受試者每個(gè)視角的剩余2個(gè)NM、2個(gè)CL和2個(gè)BG序列。 結(jié)果主要針對(duì)所有視角報(bào)告,不包括角度與參考相同的probe序列。

    \quad \quadCASIA-C: CASIA-C 數(shù)據(jù)集包括來(lái)自 153 個(gè)不同受試者的紅外和輪廓數(shù)據(jù),并且序列是在夜間不同變化下捕獲的。這些變化包括三種不同的步行速度,即慢走 (SW)、正常步行 (NW) 和快速步行 (FW),以及攜包行走 (BW)。 每個(gè)受試者有 4 個(gè) NW、2 個(gè) SW、2 個(gè) FW 和 2 個(gè) BW 序列。 測(cè)試協(xié)議考慮了跨速步態(tài)識(shí)別測(cè)試。

    \quad \quadOU-ISIR Speed: OU-ISIR Speed數(shù)據(jù)集提供34名受試者的輪廓數(shù)據(jù)。該數(shù)據(jù)集適用于評(píng)估步態(tài)識(shí)別方法對(duì)步行速度的魯棒性,因?yàn)樗?strong>九種不同的速度,從2 km/h到11 km/h不等,間隔為1 km/h。該數(shù)據(jù)集采用了跨速度測(cè)試。

    \quad \quadOU-ISIR Clothing: OU-ISIR Clothing數(shù)據(jù)集包括68名受試者的數(shù)據(jù),他們穿著多達(dá)32種不同類(lèi)型的服裝組合。在同一天的兩次室內(nèi)采集過(guò)程中收集步態(tài)序列。與數(shù)據(jù)集OU-ISIR一起提供了一個(gè)受試者無(wú)關(guān)的測(cè)試協(xié)議,該協(xié)議將數(shù)據(jù)劃分為預(yù)定義的訓(xùn)練、測(cè)試和驗(yàn)證集,特別是與服裝條件有關(guān)的數(shù)據(jù)集。

    \quad \quadOU-ISIR MV: OU-ISIR MV數(shù)據(jù)集包含168名受試者的步態(tài)輪廓,受試者年齡范圍很廣,從4歲至75歲,男女受試者人數(shù)幾乎相等。數(shù)據(jù)是從大范圍的視角變化中獲取的,包括24個(gè)方位角視圖和1個(gè)俯視圖。跨視圖測(cè)試協(xié)議已被廣泛用于該數(shù)據(jù)集。

    \quad \quadOU-ISIR: OU-ISIR:OU-ISIR數(shù)據(jù)集是一個(gè)大規(guī)模的步態(tài)數(shù)據(jù)集,由4007個(gè)性別分布幾乎相等、年齡從1歲到94歲不等的受試者的步態(tài)數(shù)據(jù)組成。 步態(tài)序列是在室內(nèi)大廳的兩個(gè)不同采集過(guò)程中使用四個(gè)以 55。55^。5565。65^。6575。75^。7585。85^。85 放置的攝像機(jī)捕獲的。 由于每個(gè)受試者有兩個(gè)序列可用,測(cè)試協(xié)議使用第一個(gè)序列作為注冊(cè)樣本,另一個(gè)作為驗(yàn)證樣本。

    \quad \quadTUM GAID: TUM GAID是一個(gè)多模態(tài)步態(tài)數(shù)據(jù)集,包括305名受試者的RGB、深度和音頻數(shù)據(jù)。對(duì)于一組選定的32名受試者,數(shù)據(jù)集是在冬季夏季的兩次不同的戶(hù)外采集過(guò)程中采集。從每個(gè)受試者身上捕獲了10個(gè)序列,包括正常行走(N)、背包行走(B)和一次性鞋套行走(S)。測(cè)試協(xié)議由原始作者提供,將數(shù)據(jù)分為訓(xùn)練、驗(yàn)證(validation)和測(cè)試集。識(shí)別實(shí)驗(yàn)通常針對(duì)N、B和S步態(tài)變化進(jìn)行。

    \quad \quadTUM GAID: TUM GAID是一個(gè)多模態(tài)步態(tài)數(shù)據(jù)集,包括305名受試者的RGB、深度和音頻數(shù)據(jù)。對(duì)于一組選定的32名受試者,數(shù)據(jù)集是在冬季夏季的兩次不同的戶(hù)外采集過(guò)程中采集。從每個(gè)受試者身上捕獲了10個(gè)序列,包括正常行走(N)、背包行走(B)和一次性鞋套行走(S)。測(cè)試協(xié)議由原始作者提供,將數(shù)據(jù)分為訓(xùn)練、驗(yàn)證(validation)和測(cè)試集。識(shí)別實(shí)驗(yàn)通常針對(duì)N、B和S步態(tài)變化進(jìn)行。

    \quad \quadOU-ISIR LP Bag: OU-ISIR LP Bag數(shù)據(jù)集由62528名受試者攜帶物體的步態(tài)視頻組成,在受限的室內(nèi)環(huán)境中使用一臺(tái)攝像機(jī)拍攝。每個(gè)受試者獲得了三個(gè)序列,一個(gè)帶有攜帶物體,兩個(gè)沒(méi)有攜帶物體。按照提出的測(cè)試方案,訓(xùn)練集包含來(lái)自29097名受試者的數(shù)據(jù),其中有兩個(gè)序列,帶或不帶攜帶物體,測(cè)試集包括其他29102的受試者。為了將測(cè)試集劃分為驗(yàn)證集和注冊(cè)集,分別在協(xié)作和非協(xié)作場(chǎng)景下采用了兩種方法。對(duì)于協(xié)作場(chǎng)景,注冊(cè)集僅包含不攜帶物體的序列,其中驗(yàn)證集包括帶七種不同類(lèi)型攜帶物體的序列。在非協(xié)作場(chǎng)景中,隨機(jī)形成注冊(cè)和驗(yàn)證集,以便它們都包含帶或不帶攜帶物體的序列。

    \quad \quadOU-MVLP: OU-MVLP 數(shù)據(jù)集是就步態(tài)序列數(shù)量而言最大的可用步態(tài)數(shù)據(jù)集 (259,013)。 該數(shù)據(jù)集提供輪廓的視頻,并在每個(gè)受試者的兩個(gè)采集過(guò)程中獲得。 受試者的性別分布幾乎相等,年齡范圍為 2 至 87 歲。 該數(shù)據(jù)集是從 0° 到 90° 和 180° 到 270° 的 14 個(gè)不同視角中獲取的,其中每一步的角度變化為 15°。 已指定 5153 和 5154 名受試者的預(yù)定義列表,并與數(shù)據(jù)集一起分別作為訓(xùn)練集和測(cè)試集提供。 為了測(cè)試,來(lái)自第一和第二采集過(guò)程的序列分別形成注冊(cè)集和驗(yàn)證集。 在最近的大多數(shù)步態(tài)識(shí)別論文中,都考慮了所有或四個(gè)視角,特別是 0°、30°、60° 和 90°。

    \quad \quadCASIA-E: CASIA-E數(shù)據(jù)集由1014名受試者的步態(tài)輪廓組成,每個(gè)受試者有數(shù)百個(gè)視頻序列,在三種場(chǎng)景中捕獲,分別為簡(jiǎn)單靜態(tài)背景復(fù)雜靜態(tài)背景復(fù)雜動(dòng)態(tài)背景。這些數(shù)據(jù)是根據(jù)三種不同的行走條件采集的,包括正常行走(NM)、帶外套行走(CL)和帶包行走(BG)。該數(shù)據(jù)集是從 15 個(gè)不同的視角獲得的,包括兩個(gè)高度為 1.2 m 和 3.5 m 的垂直視角,以及 13 個(gè)從 0° 到 180° 以 15° 為增量的水平視角。該數(shù)據(jù)集最近用于 2020 年 TC4 遠(yuǎn)程人類(lèi)識(shí)別競(jìng)賽和研討會(huì),其中訓(xùn)練集包括前500名受試者的全部數(shù)據(jù),而最后514名受試者的25個(gè)序列用于驗(yàn)證(validation)。最后514名受試者的剩余序列用于測(cè)試。

    \quad \quadOU-MVLP Pose: OU-MVLP Pose數(shù)據(jù)集建立在OU-MVLP的基礎(chǔ)上,從OUMVLP中可用的RGB圖像中提取人體骨骼形式的姿勢(shì)序列。使用OpenPose和AlphaPose的預(yù)訓(xùn)練版本創(chuàng)建了兩個(gè)子集,以提取人體關(guān)節(jié)信息。測(cè)試協(xié)議類(lèi)似于為OU-MVLP提出的協(xié)議。

    參考文獻(xiàn)


    [10] C.Wan, L.Wang, and V. V. Phoha, “A survey on gait recognition,” ACM Computing Surveys, vol. 51, no. 5, pp. 1–35, August 2018.

    [11] I. Rida, N. Almaadeed, and S. Almaadeed, “Robust gait recognition: a comprehensive survey,” IET Biometrics, vol. 8, no. 1, pp. 14–28, January 2019.

    [12] A. Nambiar, A. Bernardino, and J. C. Nascimento, “Gait-based person re-identification: A survey,” ACM Computing Surveys, vol. 52, no. 2, pp. 1–34, April 2019.

    [13] M. D. Marsico and A. Mecca, “A survey on gait recognition via wearable sensors,” ACM Computing Surveys, vol. 52, no. 4, pp. 1–39, September 2019.

    [14] J. P. Singh, S. Jain, S. Arora, and U. P. Singh, “Vision-based gait recognition: A survey,” IEEE Access, vol. 6, pp. 70 497–70 527, November 2018.

    [36] P. Connor and A. Ross, “Biometric recognition by gait: A survey of modalities and features,” Computer Vision and Image Understanding, vol. 167, pp. 1–27, February 2018.

    [37] M. J. Nordin and A. Saadoon, “A survey of gait recognition based on skeleton model for human identification,” Research Journal of Applied Sciences, Engineering and Technology, vol. 12, no. 7, pp. 756–763, April 2016.

    [38] J. P. Singh, S. Jain, S. Arora, and U. P. Singh, “A survey of behavioral biometric gait recognition: Current success and future perspectives,” Archives of Computational Methods in Engineering, vol. 28, no. 1, pp. 107–148, November 2019.

    總結(jié)

    以上是生活随笔為你收集整理的深度步态识别综述(一)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

    如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。