3D姿态估计(GAST)
1.下載數(shù)據(jù)集,只用到human3.6m數(shù)據(jù)集中的2D數(shù)據(jù)集和3D數(shù)據(jù)集。將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集。(直接將2D數(shù)據(jù)集輸入進(jìn)行訓(xùn)練,得出的prediction和3D的groundtruth做比較)
2.在數(shù)據(jù)集中提取數(shù)據(jù),得相機(jī)參數(shù),2D關(guān)鍵點(diǎn)和3D關(guān)鍵點(diǎn)。
cameras_valid, poses_valid, poses_valid_2d = fetch(subjects_test, action_filter, dataset, keypoints, args.downsample)3.定義模型,UnchunkedGenerator等,將模型數(shù)據(jù)放入GPU。
主要看一下相對(duì)于videopose本程序做出了哪些改變。
首先就是引入了圖卷積,所以對(duì)于輸入的數(shù)據(jù)要增設(shè)他們的圖矩陣,在網(wǎng)絡(luò)設(shè)置的時(shí)候加上圖卷積這一模塊,與時(shí)間卷積共同構(gòu)成,這就使得輸入的參數(shù)多設(shè)置了adj。圖卷積一共有兩個(gè)模塊,一個(gè)是local-attention,一個(gè)是global-attention。
local-attention中先定義SemCHGraphConv網(wǎng)絡(luò)框架,具體網(wǎng)上可以查到公式。以這個(gè)框架為基礎(chǔ)輸入不同的矩陣adj_sym和adj_con得到local_attention的架構(gòu)。adj_sym是對(duì)“左右對(duì)稱(chēng)的關(guān)節(jié)點(diǎn)”進(jìn)行關(guān)聯(lián)的矩陣,adj_con是鄰接矩陣,一階和二階等體現(xiàn)在矩陣?yán)铩?#xff08;論文中說(shuō)對(duì)于手腕腳腕頭等關(guān)節(jié)點(diǎn)只有一個(gè)連接點(diǎn)所以*****沒(méi)仔細(xì)看,不太懂
相對(duì)比于SemGCN其實(shí)GAST并沒(méi)有改變多少,將原本的locallayer和globallayer在網(wǎng)絡(luò)中的順序變換了,并且加上了注意力,將關(guān)聯(lián)的節(jié)點(diǎn)以矩陣表達(dá)。
4.進(jìn)行訓(xùn)練,while epoch < args.epochs,訓(xùn)練后求loss進(jìn)行模型優(yōu)化
5.最后進(jìn)行測(cè)試,用測(cè)試集調(diào)用evaluate(),測(cè)試范化能力。
總結(jié)
以上是生活随笔為你收集整理的3D姿态估计(GAST)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: [环境搭建八] 深度学习环境搭建--常见
- 下一篇: 大数据经历了40年的发展,传统数据和网络