学生中心在实时眼动追踪方面跳了很多

时间:2018-08-01 06:50:24

标签: image-processing real-time video-processing eye-tracking iris-recognition

在我的眼动跟踪项目中,瞳孔中心跳得很多,我不认为这是一个固定点。

我该怎么办?

我的想法是将2帧中的瞳孔中心和瞳孔与阈值进行比较,但这并不能解决问题。另一点是相机噪音。

我应该如何减少噪音?

我使用了starburst algorithm

  

Starburst :一种基于视频的眼睛跟踪的混合算法,结合了基于特征和基于模型的方法。

2 个答案:

答案 0 :(得分:1)

眼动仪有两种类型的噪音/错误:可变错误和系统错误。可变噪声基本上是凝视目标周围的色散,而恒定的漂移或与凝视目标的偏离是系统噪声。供参考,请参阅以下论文:

https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0196348

在您的情况下,其变量错误。由于疲劳,眼球非自愿振动,光线等导致可变误差。您可以通过仅过滤注视数据将其删除。但是,请注意不要使其平滑得太多,否则可能会导致眼球固有的自然波动消失。

答案 1 :(得分:1)

上下文

关于眼动追踪技术的信息很少。但是,由于我在这个主题上花费的时间(不多),因此提出了几个问题。一个与eye tracking library issue相关,而另一个与similar problem的替代相关。如您所见,该主题不是直观且容易解决的。但是不要失去力量。

答案

被称为交互式应用程序的注视跟踪技术 [1],本文可以解答您的疑问。本文介绍了眼动追踪技术,并重点介绍了可能促进其在一般应用中使用的最新进展。由于pupil–corneal reflection technique [2,3]的可用性优势,作者还提供了对它们的描述,并表明该方法仍不太适合一般的交互式应用程序。

信息

不过,对于您来说,使用眼动追踪技术阅读一些常规的可用性测试可能很重要。一篇不错的文章是标题为 Eye-tracking in Usability Testing 的文章,作者在其中描述了与相机校准有关的问题,这些问题是现实生活中使用的限制因素。同时,标题为 UXer’s quick guide to eye tracking 的文章描述并建议了如何使用它。

关于

也许谁会担心,在我们的项目中,我们开发了两个存储库。第一个名为eye-tracker-setup的存储库是首次尝试提取有关Tobbi Eye Tracker 4C设备的信息。但是,我们并没有成功,因此创建了另一个名为eye-tracker-naive的存储库。

参考

[1]森本C.H.和Mimica,M.R.,2005年。用于互动应用的视线跟踪技术。计算机视觉与图像理解,98(1),第4-24页。

[2]江建南,Z。彭毅,Zi-yi,Chuang,Z。和Ying H.,2009年5月。基于瞳孔角膜反射的视线追踪关键技术。在2009年的WRI全球智能系统大会上(第2卷,第133-138页)。 IEEE。

[3] Morimoto,C.H.,Koons,D.,Amir,A。和Flickner,M.,2000。使用多个光源的瞳孔检测和跟踪。图像与视觉计算,第18卷第4期,第331-335页。