AAAI论文首发:几何驱动的自监督的人体3D姿态估计方法
徐亦達(dá)團(tuán)隊(duì)和北理工李侃老師的共同博士生李楊在AAAI 的發(fā)表了一篇機(jī)器學(xué)習(xí)論文,本人得到徐老師授權(quán)在本站發(fā)布論文。
Geometry-driven Self-supervised Method for 3D Human Pose Estimation
論文第一作者:李楊
論文介紹
Geometry-driven Self-supervised Method for 3D Human Pose Estimation
幾何驅(qū)動(dòng)的自監(jiān)督的人體3D姿態(tài)估計(jì)方法
論文摘要
近年來,基于深度學(xué)習(xí)的單目人體3D姿態(tài)估計(jì)吸引了越來越多研究人員的關(guān)注。深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練依賴于大量的標(biāo)注數(shù)據(jù),然而人體3D關(guān)節(jié)點(diǎn)的標(biāo)注是一項(xiàng)成本昂貴的工作。為了解決此問題,本文提出了一種新的自監(jiān)督的人體3D姿態(tài)估計(jì)方法,不同于現(xiàn)有的弱/自監(jiān)督方法,我們的方法完全依靠于相機(jī)幾何先驗(yàn)知識,無需任何額外的人體3D關(guān)節(jié)點(diǎn)標(biāo)注。我們的方法總體上基于兩階段的框架:人體2D姿態(tài)估計(jì)和2D到3D姿態(tài)提升。為了達(dá)到自監(jiān)督網(wǎng)絡(luò)訓(xùn)練的目的,我們提出了變換重投影損失,利用多視角一致性信息構(gòu)建損失函數(shù)訓(xùn)練2D到3D姿態(tài)提升網(wǎng)絡(luò)。此外,我們使用人體2D關(guān)節(jié)點(diǎn)的置信度來整合不同視角的損失,以減輕由于遮擋導(dǎo)致的噪聲的影響。最后,我們設(shè)計(jì)了一個(gè)用于訓(xùn)練的雙分支網(wǎng)絡(luò)結(jié)構(gòu),該網(wǎng)絡(luò)可以在訓(xùn)練過程中保留人體3D姿態(tài)的尺度信息。我們在兩個(gè)主流的人體3D姿態(tài)數(shù)據(jù)集,Human3.6M和MPI-INF-3DHP,上驗(yàn)證了我們方法的性能,實(shí)驗(yàn)結(jié)果表明我們方法的性能明顯優(yōu)于最近的弱/自監(jiān)督方法。
算法框架
實(shí)驗(yàn)效果
在兩個(gè)主流的人體3D姿態(tài)數(shù)據(jù)集,Human3.6M和MPI-INF-3DHP的效果
總結(jié)
論文下載:
https://github.com/leon532/Geometry-driven-Self-supervised-Method-for-3D-Human-Pose-Estimation/blob/master/AAAI2020/AAAI-LiY.7454.pdf
或者鏈接:https://pan.baidu.com/s/1EkTX1MsgYumluPIIJuga9w
提取碼:dfzr
不多說了,徐亦達(dá)老師團(tuán)隊(duì)出品,必屬精品,建議下載慢慢看。
備注:公眾號菜單包含了整理了一本AI小抄,非常適合在通勤路上用學(xué)習(xí)。
往期精彩回顧那些年做的學(xué)術(shù)公益-你不是一個(gè)人在戰(zhàn)斗適合初學(xué)者入門人工智能的路線及資料下載機(jī)器學(xué)習(xí)在線手冊深度學(xué)習(xí)在線手冊備注:加入本站微信群或者qq群,請回復(fù)“加群”加入知識星球(4500+用戶,ID:92416895),請回復(fù)“知識星球”喜歡文章,點(diǎn)個(gè)在看
與50位技術(shù)專家面對面20年技術(shù)見證,附贈(zèng)技術(shù)全景圖總結(jié)
以上是生活随笔為你收集整理的AAAI论文首发:几何驱动的自监督的人体3D姿态估计方法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Attention 扫盲:注意力机制及其
- 下一篇: 机器学习深度学习论文写作工具推荐