3D Human相关研究总结:人体、姿态估计、人体重建等
?PaperWeekly 原創 ·?作者|張瑩
單位|騰訊
本文簡要介紹與 3D 數字人相關的研究,包括常用 3D 表示、常用 3D 人體模型、3D 人體姿態估計,帶衣服 3D 人體重建,3D 衣服建模,以及人體動作驅動等。
常用3D表示
目前 3D 學習中,物體或場景的表示包括顯式表示與隱式表示兩種,主流的顯式表示包括基于 voxel、基于 point cloud、和基于 polygon mesh 三種,隱式表示包括基于 Occupancy Function [1]、和基于 Signed Distance Functions [2] 兩種。下表簡要總結了各種表示方法的原理及其相應優缺點。
1.1 Voxel
表示圖像:
表示原理:體素用規則的立方體表示 3D 物體,體素是數據在三維空間中的最小分割單位,類似于 2D 圖像中的像素。
優缺點:
+ 規則表示,容易送入網絡學習
+ 可以處理任意拓撲結構
- 隨著分辨率增加,內存呈立方級增長
- 物體表示不夠精細
- 紋理不友好
1.2 Point Cloud
表示圖像:
表示原理:點云將多面體表示為三維空間中點的集合,一般用激光雷達或深度相機掃描后得到點云數據。
優缺點:
+ 容易獲取
+ 可以處理任意拓撲結構
- 缺少點與點之間連接關系
- 物體表示不夠精細
- 紋理不友好
1.3 Polygon Mesh
表示圖像:
表示原理:多邊形網格將多面體表示為頂點與面片的集合,包含了物體表面的拓撲信息。
優缺點:
+ 高質量描述 3D 幾何結構
+ 內存占有較少
+ 紋理友好
- 不同物體類別需要不同的 mesh 模版
- 網絡較難學習
1.4 Occupancy Function
表示圖像:
表示原理:occupancy function 將物體表示為一個占有函數,即空間中每個點是否在表面上。
優缺點:
+ 可以精細建模細節,理論上分辨率無窮
+ 內存占有少
+ 網絡較易學習
- 需后處理得到顯式幾何結構
1.5 Signed Distance Function
表示圖像:
表示原理:SDF 將物體表示為符號距離函數,即空間中每個點距離表面的距離。
優缺點:
+ 可以精細建模細節,理論上分辨率無窮
+ 內存占有少
+ 網絡較易學習
- 需后處理得到顯式幾何結構
常用3D人體模型
目前常用的人體參數化表示模型為德國馬克斯?普朗克研究所提出的 SMPL [3],該模型采用 6890 個頂點(vertices), 和 13776 ?個面片(faces)定義人體 template mesh,并采用 10 維參數向量控制人體 shape,24 個關節點旋轉參數控制人體 pose,其中每個關節點旋轉參數采用 3 維向量來表示該關節相對其父關節分別沿著 x, y, z 軸的旋轉角。
該研究所在 CVPR 2019 上提出 SMPL-X [4],采用了更多頂點來精細建模人體,并加入了面部表情和手部姿態的參數化控制。這兩篇工作給出了規范的、通用的、可以與工業 3D 軟件如 Maya 和 Unity 相通的人體參數化表示,并提出了一套簡單有效的蒙皮策略,使得人體表面的頂點跟隨關節旋轉運動時不會產生明顯瑕疵。
近年來也有不少改進的人體模型,如 SoftSMPL [5],STAR [6],BLSM [7],GHUM [8] 等。
2.1 SMPL
基本表示:
mesh 表示:6890 vertices, 13776 faces
pose 控制:24 個關節點,24*3 維旋轉向量
shape 控制:10 維向量
示意圖:
2.2 SMPL-X
基本表示:
mesh 表示:10475 vertices, 20908 faces
pose 控制:身體 54 個關節點,75 維 PCA
手部控制:24 維 PCA
表情控制:10 維向量
shape 控制:10 維向量
示意圖:
3D人體姿態估計
3D 人體姿態估計是指從圖像、視頻、或點云中估計人物目標的體型(shape)和姿態(pose),是圍繞人體 3D 研究中的一項基本任務。3D 人體姿態估計是 3D 人體重建的重要前提,也可以是人體動作驅動中動作的重要來源。目前很多 3D 姿態估計算法主要是估計場景中人體的 SMPL 參數。
根據場景不同,可以分為針對單張圖像和針對動態視頻的人體 3D 姿態估計。下表簡要總結了目前兩種場景下的一些代表工作,并給出了一些簡要原理介紹和評價。
3.1 單張圖像
代表工作:
Keep it SMPL: Automatic Estimation of 3D Human Pose and Shape from a Single Image. In ECCV, 2016.
End-to-end Recovery of Human Shape and Pose. In CVPR, 2018.
Learning to Estimate 3D Human Pose and Shape from a Single Color Image. In CVPR, 2018.
Delving Deep into Hybrid Annotations for 3D Human Recovery in the Wild. In ICCV, 2019.
SPIN: Learning to reconstruct 3d human pose and shape via model-fitting in the loop. In ICCV, 2019.
I2L-MeshNet: Image-to-Lixel Prediction Network for Accurate 3D Human Pose and Mesh Estimation from a Single RGB Image. In ECCV, 2020.
Learning 3D Human Shape and Pose from Dense Body Parts. In TPAMI, 2020.
ExPose: Monocular Expressive Body Regression through Body-Driven Attention. In ECCV, 2020.
Hierarchical Kinematic Human Mesh Recovery. In ECCV, 2020.
Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh Recovery from a 2D Human Pose. In ECCV, 2020.
原理及評價:
主要思路:估計 SMPL 參數,加入 2D keypoint loss,adversarial loss,silhouette loss 等;有 3D 真值時可以加入 SMPL 參數真值、Mesh 真值、3D joint 真值約束;融合 regression-based 和 optimization-based 方法協作提升;從估計 SMPL 估計更精細的 SMPL-X,對手部和頭部強化處理;
目前挑戰:現實場景缺乏真值數據,如何產生有用的監督信號或 pseudo ground-truth 來幫助訓練;合成數據有真值但存在 domain gap,如何有效利用合成數據來幫助真實場景訓練;目前很多方法估計結果在人體深度、肢體末端如手部和腳部還存在偏差,對復雜姿勢估計結果仍不夠準確;
3.2 動態視頻
代表工作:
Learning 3D Human Dynamics from Video. In CVPR, 2019.
Monocular Total Capture: Posing Face, Body, and Hands in the Wild. In CVPR, 2019.
Human Mesh Recovery from Monocular Images via a Skeleton-disentangled Representation. In ICCV, 2019.
VIBE: Video Inference for Human Body Pose and Shape Estimation. In CVPR, 2020.
PoseNet3D: Learning Temporally Consistent 3D Human Pose via Knowledge Distillation. In CVPR, 2020.
Appearance Consensus Driven Self-Supervised Human Mesh Recovery. In ECCV, 2020.
原理及評價:
主要思路:估計單幀 SMPL 參數基礎上加入幀間連續性和穩定性約束;幀間聯合優化;appearance 一致性約束。
目前挑戰:幀間連續性和穩定性約束會對動作產生平滑效果,導致每一幀都不是很準確;估計出來的結果仍會存在漂浮、抖動、滑步等問題。
3D人體重建
近年來與 3D 人體重建相關的工作很多,按照上述 3D 表示形式可分為基于 Voxel 表示、基于 Mesh 表示和基于 Implicit function 表示;按照輸入形式可分為:基于單張圖像、多視角圖像和基于視頻輸入,這些輸入都可以帶有深度信息或無深度信息;按照重建效果可以分為帶紋理重建和不帶紋理重建,能直接驅動和不能直接驅動等等。
4.1 單張RGB圖像
重建效果:
+ 帶衣服褶皺
+ 帶紋理
+ 能直接驅動
代表工作:
360-Degree Textures of People in Clothing from a Single Image. In 3DV, 2019.
Tex2Shape: Detailed Full Human Body Geometry From a Single Image. In ICCV, 2019.
ARCH: Animatable Reconstruction of Clothed Humans. In CVPR, 2020.
3D Human Avatar Digitization from a Single Image. In VRCAI, 2019.
基本原理及評價:
帶衣服人體表示:SMPL+Deformation+Texture;
思路1:估計 3D pose 采樣部分紋理,再用 GAN 網絡生成完整紋理和displacement;
思路2:估計 3D pose 并 warp 到 canonical 空間中用 PIFU 估計 Occupancy;
優勢:可直接驅動,生成紋理質量較高;
問題:過度依賴掃描 3D 人體真值來訓練網絡;需要非常準確的 Pose 估計做先驗;較難處理復雜形變如長發和裙子;
重建效果:
+ 帶衣服褶皺
+ 帶紋理
- 不能直接驅動
代表工作:
PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization. In ICCV, 2019.
PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization. In CVPR, 2020.
SiCloPe: Silhouette-Based Clothed People. In CVPR, 2019.
PaMIR: Parametric Model-Conditioned Implicit Representation for Image-based Human Reconstruction. In TPAMI, 2020.
Reconstructing NBA Players. In ECCV, 2020.
基本原理及評價:
帶衣服人體表示:Occupancy + RGB;
思路1:訓練網絡提取空間點投影到圖像位置的特征,并結合該點位置預測其 Occupancy 值和 RGB 值;
優勢:適用于任意 pose,可建模復雜外觀如長發裙子
問題:過度依賴掃描 3D 人體真值來訓練網絡;后期需要注冊 SMPL 才能進行驅動;紋理質量并不是很高;
重建效果:
+ 帶衣服褶皺
- 不帶紋理
- 不能直接驅動
代表工作:
BodyNet: Volumetric Inference of 3D Human Body Shapes. In ECCV, 2018.
DeepHuman: 3D Human Reconstruction From a Single Image. In ICCV, 2019.
基本原理及評價:
帶衣服人體表示:voxel grid occupancy;
思路1:預測 voxel grid 每個格子是否在 body 內部;
優勢:適用于任意 pose,可建模復雜外觀如長發裙子
問題:需要另外估紋理;分辨率較低;過度依賴掃描 3D 人體真值來訓練網絡;后期需要注冊 SMPL 才能進行驅動;
4.2 多視角RGB圖像
重建效果:
+ 帶衣服褶皺
+ 帶紋理
- 不能直接驅動
代表工作:
Deep Volumetric Video From Very Sparse Multi-View Performance Capture. In ECCV, 2018.
PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization. In ICCV, 2019.
PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization. In CVPR, 2020.
基本原理及評價:
帶衣服人體表示:Occupancy + RGB;
思路:多視角 PIFU;
優勢:多視角信息預測更準確;適用于任意 pose;可建模復雜外觀如長發和裙子;
問題:多視角數據較難采集,過度依賴掃描 3D 人體真值來訓練網絡;后期需要注冊 SMPL 才能進行驅動;紋理質量并不是很高;
4.3 單張RGBD圖像
重建效果:
+ 帶衣服褶皺
+ 帶紋理
- 不能直接驅動
代表工作:
NormalGAN: Learning Detailed 3D Human from a Single RGB-D Image. In ECCV, 2020.
基本原理及評價:
帶衣服人體表示:3D point cloud + triangulation;
思路:GAN 網絡生成 front-view 和 back-view 的 depth 和 color,再用 triangulation 得到 mesh;
優勢:適用于任意 pose;可建模復雜外觀如長發和裙子;
問題:過度依賴掃描 3D 人體真值來訓練網絡;后期需要注冊 SMPL 才能進行驅動;紋理質量并不是很高;
4.4 RGB視頻輸入
重建效果:
+ 帶衣服褶皺
+ 帶紋理
+ 能直接驅動
代表工作:
Video Based Reconstruction of 3D People Models. In CVPR, 2018.
Detailed Human Avatars from Monocular Video. In 3DV, 2018.
Learning to Reconstruct People in Clothing from a Single RGB Camera. In CVPR, 2019.
Multi-Garment Net: Learning to Dress 3D People from Images. In ICCV, 2019.
基本原理及評價:
帶衣服人體表示:SMPL+Deformation+Texture;
思路1:多幀聯合估計 canonical T-pose 下的 SMPL+D,投影回每幀提取紋理融合;
優勢:可直接驅動;生成紋理質量較高;簡單場景下效果較好;
問題:過度依賴掃描 3D 人體真值來訓練網絡;需要較準確的 Pose 估計和 human parsing 做先驗;較難處理復雜形變如長發裙子
重建效果:
+ 帶衣服褶皺
- 不帶紋理
- 不能直接驅動
代表工作:
MonoClothCap: Towards Temporally Coherent Clothing Capture from Monocular RGB Video. In 3DV, 2020.
基本原理及評價:
帶衣服人體表示:SMPL+Deformation;
思路:每幀估計 SMPL 參數并聯合多幀優化得到穩定 shape 和每幀 pose,為不同衣服建模形變參數化模型,約束 Silhouette, Clothing segmentation, Photometric, normal 等信息一致
優勢:無需 3D 真值;可以建模較為細致的衣服形變;
問題:依賴較準確的 pose 和 segmentation 估計;只能處理部分衣服類型;
4.5 RGBD視頻輸入
重建效果:
+ 帶衣服
+ 帶紋理
+ 也許能直接驅動
代表工作:
Robust 3D Self-portraits in Seconds. In CVPR, 2020.
TexMesh: Reconstructing Detailed Human Texture and Geometry from RGB-D Video. In ECCV, 2020.
基本原理及評價:
帶衣服人體表示:Occupancy+RGB;
思路1:RGBD 版 PIFU 生成每幀先驗,TSDF(truncated signed distance function)分為 inner model 和 surface layer,PIFusion 做? double layer-based non-rigid tracking,多幀聯合微調優化得到 3D portrait;
優勢:建模較精細,可以處理較大形變如長發和裙子;不需要掃描真值;
問題:流程略復雜;紋理質量一般;
4.6 Depth視頻輸入
重建效果:
+ 帶衣服褶皺
- 不帶紋理
+ 也許能直接驅動
代表工作:
DoubleFusion: Real-time Capture of Human Performances with Inner Body Shapes from a Single Depth Sensor. In CVPR, 2018.
基本原理及評價:
帶衣服人體表示:outer layer + inner layer(SMPL)
思路:joint motion tracking, geometric fusion and volumetric shape-pose optimization
優勢:建模較精細;速度快,可以實時;
問題:無紋理;
3D衣服建模
在 3D 人體重建任務中,衣服一般是用與 template mesh 每個頂點綁定的 Deformation 來表示,但這種表示并不能精細建模衣服的紋理褶皺等細節,在人物模型運動起來時也會很不自然。
因此近年來也有一部分工作將 3D 衣服建模與深度神經網絡結合,旨在不同 shape 和 pose 情況下,準確逼真地模擬、預測人體衣服的形變。
5.1 TOG 2018
Physics-Inspired Garment Recovery from a Single-View Image. In TOG, 2018.
基本原理:
簡要評價:
思路:衣服分割+衣服特征估計(尺碼,布料,褶皺)+人體 mesh 估計,材質-姿態聯合優化+衣物仿真;
優勢:衣服和人體參數化表示較規范;引入物理、統計、幾何先驗;
問題:衣服特征估計受光照和圖像質量影響較大,受限于 garment 模版的豐富程度;需要后期通過衣物仿真聯合優化來調整效果;
5.2?ECCV 2018
DeepWrinkles: Accurate and Realistic Clothing Modeling. In ECCV, 2018.
基本原理:
簡要評價:
思路:統計模型學習衣服在某 pose 和 shape 下的大致效果,GAN 模型生成更細致的褶皺;
優勢:用 GAN 可以生成逼真細致的褶皺;
問題:依賴 4D 掃描動作序列真值;需提前做好衣服注冊;
5.3?ICCV?2019
Multi-Garment Net: Learning to Dress 3D People from Images. In ICCV, 2019.
基本原理:
簡要評價:
思路:human parsing 分割衣服并預測類別,估計衣服 PCA 參數和細節 Displacement;
優勢:明確 3D scan segmentation 和 Garment registration 的? pipeline;引入 Human parsing 可以得到更準確的衣服類別;
問題:過度依賴 3D 真值訓練;PCA 參數表示的準確性依賴 dataset 大小;
5.4?EUROGRAPHICS 2019
Learning-Based Animation of Clothing for Virtual Try-On. In EUROGRAPHICS, 2019.
基本原理:
簡要評價:
思路:衣服仿真生成真值幫助網絡訓練,基于 shape 學習衣服模版變形,基于 pose 和 shape 學習動態褶皺,
優勢:衣物仿真可以得到任意 pose 下的大量真值數據;
問題:與現實數據差距較大;依賴衣物模版的豐富程度;直接學習 defromation 不夠穩定,容易穿模需后處理;
5.5?CVPR 2020
TailorNet: Predicting Clothing in 3D as a Function of Human Pose, Shape and Garment Style. In CVPR, 2020.
基本原理:
簡要評價:
思路:將衣服形變分為高頻和低頻,低頻部分用網絡估計大致形變,高頻部分估計多個特定 style-shape 模型,每個模型負責估計特定形變及加權權重;
優勢:可以得到較為細致的衣服褶皺;提出合成數據集,仿真 20 件衣服,1782 ?個 pose 和 9 種 shape;
問題:在不同 shape 和 style 上訓練得到結果過于平滑,不夠真實;
5.6?ECCV 2020
BCNet: Learning Body and Cloth Shape from A Single Image. In ECCV, 2020.
基本原理:
簡要評價:
思路:基于單張圖像估計 SMPL 參數和上下身的 Garment 參數,用兩個網絡分別估計 displacement 和 skining weight;
優勢:對 garment 學習蒙皮權重,動起來可以更自然;garment mesh 與 body ?mesh 不綁定,可以重建更多衣服類別;
問題:將衣服分為上下半身,對連衣裙和長款不友好;
5.7?ECCV 2020
Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction from Single Images. In ECCV, 2020.
基本原理:
簡要評價:
貢獻:提出 Deep Fashion3D 數據集,包括 2000 件衣服,10 種類型,標記相應點云,多視角圖像,3D body pose,和 feature lines;
思路:提出基于單張圖像的 3D 衣服重建,通過估計衣服類型,body pose,feature lines 對 adaptable template 進行形變;
優勢:衣服類型、feature line 估計可以提供更多 deformation 先驗;引入 implicit surface 重建更精細;
問題:當衣服類型與 adaptable template 差距較大時,handle-based Laplcacian deformation 優化較難;
人體動作驅動
人體動作驅動目的是使 3D 人體按照我們預先設置的動作運動起來,這里面一般需要考慮兩個問題:人體動作怎么來?怎么驅動人體得到滿意結果?
動作獲取
目前常用的動作獲取方法包括手工制作、物理模擬、視頻估計的和動捕采集等,每種策略的詳細優缺點可以參考 [9]。簡單來說,手工制作動作可以適用于各種目標如人和動物,但代價高昂,依賴于專業美術人員的審美;物理模擬方式根據物理規則的來生成動作,但一般僅適用于少部分規則運動;基于視頻估計的方法代價最低,但目前技術很難獲得高質量穩定動作;因此目前對于只是使用人體動作的場景來說,動捕采集依賴于專業設備來捕捉真實的演員運動,可以獲得穩定的高質量動作 [10]。
目前也有一些研究工作會基于深度神經網絡來生成新動作如?PFNN [11]、Dancing to Music [12],或是基于網絡進行動作插值來減輕美術工作量如 Motion In-Betweening [13],Motion Inpainting [14],或是基于強化學習使目標人物學會做一些動作 [15]。
3D人體驅動
一般來說,目前常用的動作驅動流程是將動捕采集數據轉換為 SMPL 參數,再根據 SMPL 的骨骼結構和蒙皮策略將目標人物 repose 到特定姿勢。對于角色控制精度要求不高的情況下,直接輸入 SMPL 參數來控制動作可以滿足大部分需求。
而在要求較高的動畫場景中,或者是驅動其他骨骼結構類似的角色時,因為角色之間的骨骼長度,體型等會存在差異,只是輸入參數控制會產生一些問題如動作不能做到位,產生穿模等等。因此,目前也有一些研究工作探索不同骨骼結構之間的 motion retargeting,如 [16, 17, 18] 等。
人體動作遷移
另外值得一提的是,只是進行動作遷移也可以不需要對角色進行顯式的 3D 建模,目前常用策略是采用 GAN 網絡基于 2D/3D 姿態參數來生成動作遷移后的目標圖像或視頻,如 Dense Pose Transfer [19],Everybody Dance Now [20],LWGAN [21], Few-shot vid2vid [22],TransMoMo [23] 等等。
總的來說,基于 3D 目標重建的動作遷移的優勢在于可以泛化到各種動作,運動起來外觀比較穩定,而難點在于如何精確重建外觀幾何如衣服和頭發等位置,如何在驅動的時候產生逼真的外觀變化效果如衣擺運動和頭發飄起等;基于 GAN 生成的動作遷移優勢在于可以生成逼真的外觀變化,而難點在于如何應對復雜動作和新動作下的外觀生成,如何保證生成視頻的人物動作和外觀穩定性等。
總結
本文簡要概述了與 3D 人體相關的一些研究工作,包括 Representation、Body、Pose、Reconstruction、Cloth、Animation 等多個方面,涉及到各種細分的研究領域,如人體模型表示、人體姿態估計、人體重建、衣服建模、動作合成與驅動等等。
從深度學習的角度來看,這些研究方向的主要挑戰是缺乏 3D 真值數據,目前 3D 數據的采集還受限于特定環境和設備且價格不菲,而數據的標注則需要專業的 3D 知識和 CG 技術,因此從仿真數據中學習一些規律并利用自監督或無監督學習算法來遷移到現實場景也是目前研究工作在探索的方向。
目前各種技術的終極目標是在虛擬世界里還原真實的人類,除了外觀和動作,還有說話、語音、表情、交互等多個方面。此外值得一提的是,渲染技術也是 3D 數字人領域的關鍵技術,提升渲染技術的真實性和實時性對于該領域發展有著重要意義。
參考文獻
[1]?Occupancy Networks: Learning 3D Reconstruction in Function Space. In CVPR, 2019.
[2]?DeepSDF: Learning Continuous Signed Distance Functions for Shape Representation. In CVPR, 2019.
[3]?SMPL: A Skinned Multi-Person Linear Model. In SIGGRAPH Asia, 2015.
[4]?Expressive Body Capture: 3D Hands, Face, and Body from a Single Image. In CVPR, 2019.
[5]?SoftSMPL: Data-driven Modeling of Nonlinear Soft-tissue Dynamics for Parametric Humans. In Eurographics, 2020.
[6]?STAR: Sparse Trained Articulated Human Body Regressor. ECCV, 2020.
[7]?BLSM: A Bone-Level Skinned Model of the Human Mesh. ECCV, 2020.
[8]?GHUM & GHUML:?Generative 3D Human Shape and Articulated Pose Models. CVPR (Oral), 2020.
[9]?3D Human Motion Editing and Synthesis: A Survey. In CMMM, 2020.
[10]?MoSh: Motion and Shape Capture from Sparse Markers. In SIGGRAPH Asia, 2014.
[11]?Phase-Functioned Neural Networks for Character Control. In SIGGRAPH, 2017.
[12]?Dancing to Music Neural Information Processing Systems. In NeurIPS, 2019.
[13]?Robust Motion In-betweening. In SIGGRAPH, 2020.
[14]?Human Motion Prediction via Spatio-Temporal Inpainting. In ICCV, 2019.
[15]?DeepMimic: Example-Guided Deep Reinforcement Learning of Physics-Based Character Skills. In SIGGRAPH 2018.
[16]?RigNet: Neural Rigging for Articulated Characters. In SIGGRAPH, 2020.
[17]?Skeleton-Aware Networks for Deep Motion Retargeting. In SIGGRAPH, 2020.
[18]?Motion Retargetting based on Dilated Convolutions and Skeleton-specific Loss Functions. In Eurographics, 2020.
[19]?Dense Pose Transfer. In ECCV, 2018.
[20]?Everybody Dance Now. In ICCV, 2019.
[21]?Liquid Warping GAN: A Unified Framework for Human Motion Imitation, Appearance Transfer and Novel View Synthesis. In ICCV, 2019.
[22] [Few-shot Video-to-Video Synthesis. In NeurIPS 2019.
[23]?TransMoMo: Invariance-Driven Unsupervised Video Motion Retargeting. In CVPR, 2020.
更多閱讀
#投 稿?通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。
總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。?
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學習心得或技術干貨。我們的目的只有一個,讓知識真正流動起來。
?????來稿標準:
? 稿件確系個人原創作品,來稿需注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向)?
? 如果文章并非首發,請在投稿時提醒并附上所有已發布鏈接?
? PaperWeekly 默認每篇文章都是首發,均會添加“原創”標志
?????投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請單獨在附件中發送?
? 請留下即時聯系方式(微信或手機),以便我們在編輯發布時和作者溝通
????
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的3D Human相关研究总结:人体、姿态估计、人体重建等的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: bios里怎么设置集成声卡 bios设置
- 下一篇: 直播 | 同源共流:一个优化框架统一与解