我正在将AlphaPose与source中的pytorch姿势估计系统配合使用。我想知道的是,是否存在用于绕其轴旋转姿势的通用方法(即使没有第三维)。当一个人不是直接站在镜头前时,我想问一问是否有一种方法可以推断或代表那个人直接站在镜头前。
即如果我要根据姿势坐标对人的活动类型进行分类,那么将任何人(无论他们被捕获的角度如何)表示为就像站在摄像机前面一样很有用
例如:
Img1-在镜头前:
Img2-倾斜站立:
在图1中,我可以提取一个人在做“高举新闻”时的姿势,并在图2中做同样的事情。但是,透视图是不同的,因此分类模型仅假设两个示例代表完全不同的活动。 / p>
问题1:有没有办法旋转或外推2D姿势?
问题2:有没有更聪明的方法来对运动进行分类?