日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) >

2021WSB-day3-3:Yasushi教授介绍步态识别的最新研究进展

發(fā)布時(shí)間:2024/1/18 44 豆豆
生活随笔 收集整理的這篇文章主要介紹了 2021WSB-day3-3:Yasushi教授介绍步态识别的最新研究进展 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.


聽百家之言,集百家智慧,站在巨人肩上攀登


日本大阪大學(xué)科學(xué)與工程研究所的Yasushi Yagi教授介紹了步態(tài)識(shí)別的優(yōu)勢(shì),步態(tài)識(shí)別具有一些與其他生物特征不同的獨(dú)特優(yōu)勢(shì),比如不需要認(rèn)證個(gè)體的專門配合就能夠?qū)崿F(xiàn)身份認(rèn)證,一直是生物特征識(shí)別領(lǐng)域的研究熱點(diǎn)之一,這也是研究生物特征識(shí)別的參會(huì)學(xué)生非常感興趣的內(nèi)容。Yagi教授接著介紹的是步態(tài)特征提取的標(biāo)準(zhǔn)方法,認(rèn)證和匹配,以及步態(tài)識(shí)別的性能評(píng)價(jià)方法。Yagi教授還向同學(xué)們展示了一個(gè)能實(shí)際應(yīng)用的步態(tài)認(rèn)證系統(tǒng)和介紹了戶外場(chǎng)景中步態(tài)識(shí)別研究面臨的挑戰(zhàn)。

文章目錄

  • Human Gait
  • 一些標(biāo)準(zhǔn)的gait 特征
  • 世界上第一個(gè)步態(tài)識(shí)別 2013
  • 步態(tài)識(shí)別應(yīng)用到安防的困難
  • 解決
  • CNN based
  • 單圖的步態(tài)識(shí)別
    • PA-GCRNet: Phase-aware gait cycle reconstruction network
  • 最主要的步態(tài)識(shí)別數(shù)據(jù)集
  • Yashushi 的聯(lián)系方式
  • 問答QA

Human Gait

  • personaloty identity

Why Gait?

  • auth at distance
  • criminal investigatio

一些標(biāo)準(zhǔn)的gait 特征

  • 原始輸入的圖像
  • sequence
  • size-normalized sihourete
  • gait period
  • frequency-domain feature

世界上第一個(gè)步態(tài)識(shí)別 2013

步態(tài)識(shí)別應(yīng)用到安防的困難

  • 觀察方向的區(qū)別
  • 遮擋
  • 速度差異
  • 不同的衣著
  • 不同的健康狀況
  • 不同的意圖
  • 低采樣率

解決

教授針對(duì)這些挑戰(zhàn)給出了一些解決方法。


CNN based



最主要是transform

單圖的步態(tài)識(shí)別


PA-GCRNet: Phase-aware gait cycle reconstruction network

An end-to-end framework composed of the two components:
PA-GCR: Phase-aware gait cycle reconstructor
GaitSet [7]: Recognition network


APPLICATIONS: Real-Time Gait-Based Age Estimation and Gender Classification from a Single Image
Chi Xu’, , Yasushi Makihara’, Ruochen Liao?, Hirotaka Niitsuma^{2}
Xiang Lit,2, Yasushi Yagi’, and Jianfeng Lu Naning University of Science and Technolo

最主要的步態(tài)識(shí)別數(shù)據(jù)集

OU是大阪大學(xué)的

歡迎下載使用

Yashushi 的聯(lián)系方式

Yasushi YAGI
E-mail : yagi@am.sanken.osaka-u.ac.jp URL: http://www.am.sanken.osaka-u.ac.jp/

問答QA

問: coarse situation 在disentanglement里面?
圖片是基于控制點(diǎn)的,model based model

問:Feature selection? 只有micro-motion, 效果還是很好?
motion caption is less importtant?

  • motion 還是重要的,使用motion 可以給出很好的結(jié)果啦。
  • 我們雖然使用shape,pose,但是我們r(jià)ender了

問: slide47 JITN, 谷歌的transformer步態(tài)識(shí)別可以么?
??

問: How many frames of gait silhouette are composed of the gait cycle reconstruced by PA-GCR ,and why?

  • 我記不清了,需要看原文

問: . Why is gait recognition not applied on the common Reid database, such as Duke MTMC or market 1501?

  • pose 更general啦

問: how can we capture our motion model better? As we can see, you model end2end model can achieve good, but still use old ways, how we can have a better motion model better?

  • 我們有準(zhǔn)備一些數(shù)據(jù)集,slp model, 渲染人的body, 然后使用步態(tài)識(shí)別

問: 對(duì)于數(shù)據(jù), 聯(lián)邦學(xué)習(xí)可以保護(hù)隱私,你對(duì)聯(lián)邦學(xué)習(xí)和分享數(shù)據(jù)的看法

  • 我們的數(shù)據(jù)集,不是商用的,我們可以share

問: 我有時(shí)候想要使用RGB圖像

  • 我們?cè)谧鲆粋€(gè)新的dataset,我們有所有參與人的同意,有數(shù)據(jù)

問: 我讀了你的一篇文章, 實(shí)現(xiàn)了一個(gè)很大的數(shù)據(jù)集,50k的數(shù)據(jù),是不是說你有很多的視頻沒有被處理?

  • 我們需要檢查所有的數(shù)據(jù)
  • 花了好幾年呀

問: we can cheat by video, I want to know, what is the poplur idea to cheat time serious program?

  • 有很多新的技術(shù)啦,:)???

問:你有試過disentanglement of static and dynamic features?你對(duì)這個(gè)怎么看?

  • 做這個(gè)實(shí)驗(yàn)挺好的?:)
  • 可能是一個(gè)比較好的方法吧。

總結(jié)

以上是生活随笔為你收集整理的2021WSB-day3-3:Yasushi教授介绍步态识别的最新研究进展的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。