目前我正在使用Kinect开展一个项目,这个项目要求我知道那个人在那个时候所看到的地方,为此我想知道我需要找到那个人的视线。
现在,我可以找到人的骨骼的头部,但无法跟踪眼球运动。
if (body.TrackingState == SkeletonTrackingState.Tracked)
{
Joint joint = body.Joints[JointType.Head];
SkeletonPoint skeletonPoint = joint.Position;
// 2D coordinates in pixels
System.Drawing.Point point = new System.Drawing.Point();
if (_mode == CameraMode.Color)
{
// Skeleton-to-Color mapping
ColorImagePoint colorPoint = _sensor.CoordinateMapper.MapSkeletonPointToColorPoint(skeletonPoint, ColorImageFormat.RgbResolution640x480Fps30);
point.X = colorPoint.X;
point.Y = colorPoint.Y;
//Console.WriteLine(" X == " + point.X + " Y == " + point.Y);
X = (int)Math.Floor(point.X + 0.5);
Y = (int)Math.Floor(point.Y + 0.5);
}
// DRAWING...
Ellipse ellipse = new Ellipse
{
Fill = System.Windows.Media.Brushes.LightBlue,
Width = 20,
Height = 20
};
Canvas.SetLeft(ellipse, point.X - ellipse.Width / 2);
Canvas.SetTop(ellipse, point.Y - ellipse.Height / 2);
canvas.Children.Add(ellipse);
}
这里point.X和point.Y是骨架的头部。
答案 0 :(得分:1)
您是否看过FaceBasics示例项目?
我相信你想使用FaceFrameSource / FaceFrameReader(注意:不是HDFace)。您将能够将面部方向作为Quarternion(并且示例项目将其转换为俯仰/偏航/滚动)。
将它与骨骼的头部3D位置相结合,我认为你应该能够创建一个近似的视线。
How-to Videos封面包含一些关于方向的信息(第5个视频,在18:20左右跳过 - 你的具体问题在21:49被问到)。
编辑: 粗略的概念证明显示对FaceBasics示例项目所做的修改 - 添加到〜第565行,就在绘制了面部信息之后(我还需要更改俯仰/偏航/滚动的范围,定义上面几行并将其默认值设置为0)。这会为头部创建一个圆圈,并在黄色线条上查看近似的凝视位置。
Joint HeadJoint = this.bodies[faceIndex].Joints[JointType.Head];
ColorSpacePoint colorPoint = this.coordinateMapper.MapCameraPointToColorSpace(HeadJoint.Position);
Point HeadPoint = new Point(colorPoint.X, colorPoint.Y);
Point GazePoint = new Point(HeadPoint.X - Math.Sin((double)yaw * 0.0175) * 600, HeadPoint.Y - Math.Sin((double)pitch * 0.0175) * 600);
drawingContext.DrawLine(new Pen(System.Windows.Media.Brushes.Yellow, 5), HeadPoint, GazePoint);
drawingContext.DrawEllipse(System.Windows.Media.Brushes.LightBlue, null, HeadPoint, 70, 70);
编辑2: 刚看到你的新评论说你正在使用SDK v1.8 - 我的答案是关于v2.0的,我不能说出旧的SDK /传感器会有什么不同。