We present MeshLeTemp, a powerful method for 3D human pose and mesh reconstruction from a single image. In terms of human body priors encoding, we propose using a learnable template human mesh instead of a constant template as utilized by previous state-of-the-art methods. The proposed learnable template reflects not only vertex-vertex interactions but also the human pose and body shape, being able to adapt to diverse images. We conduct extensive experiments to show the generalizability of our method on unseen scenarios.
翻译:我们展示了MeshLeTemp, 这是一种3D人姿势的强大方法,并且从一个图像中进行网格重建。 在人体先前的编码方面,我们建议使用一个可学习的人类网格模板,而不是以往最先进的方法所使用的一个恒定模板。 拟议的可学习模板不仅反映了顶点-顶点互动,还反映了人类的外形和身体形状,能够适应不同的图像。 我们进行了广泛的实验,以显示我们方法在不可见情景上的通用性。