问题标签 [eye-tracking]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
985 浏览

latency - 了解眼动追踪的延迟

在眼动追踪的背景下,我无法理解延迟。我目前使用集成到头戴式显示器中的 30Hz 眼动仪进行视觉研究。

在我看来,眼睛实际移动的时间与眼动追踪软件提供这些坐标的时间之间存在总体延迟。此延迟有两个组成部分 -> 1)由于眼动仪成像频率(30fps - 33.3ms)造成的延迟 2)由于提取数据和提供坐标的实际算法造成的延迟。

我认为总延迟是 1) 和 2) 的总和是否正确?

我与制造眼动仪的公司进行了交谈,他们说眼动追踪的延迟为 60 毫秒。这是否意味着我的整体延迟是 60ms + (1000/30Hz) ~ 93.3ms ?

或者 60 毫秒的数字是否以某种方式考虑了眼睛摄像头的 FPS?

0 投票
0 回答
227 浏览

r - 通过 8x5 网格进行眼动追踪数据的寻路

我有一些来自 2560x1600 显示器的时间序列眼动追踪数据(xy 坐标随时间变化)。根据 40 个大小相同的 320x320 像素块,我已将这些坐标减少为 1-40 范围内的单列值。见下图说明:

监控事业部

对于 40 个块中的每一个,我想返回系列中最常跟随的块(即时间 +1)以及概率值(频率目标/频率全部)。

最终目标是绘制一个连接所有块的单个箭头(如果可能,在 ggplot 中),其粗细对应于概率值。

某种加权路由算法可能会起作用,其中权重由频率指定。但我不确定如何进行。任何帮助将不胜感激!

这是我的数据集的一小段摘录。变量是::pid参与者 ID screen,:正在查看(两个)监视器中的一个,xcoord:x 轴(像素)ycoord,:y 轴像素,time:以毫秒为单位,gsqr:1-40 块。

数据:

0 投票
0 回答
128 浏览

r - 用于分析眼动追踪数据的软件包

我正在研究痴呆症前期的眼球运动。

有一个来自眼动追踪数据的扫视和注视检测包

https://github.com/tmalsburg/saccades

如何获取眼动追踪数据?

0 投票
1 回答
298 浏览

python-2.7 - 用于眼动追踪的 IoHub

  1. ioHub 可以与 Eye Tribe 眼镜一起使用吗?

  2. 使用 ioHub,是否可以检测到 sacaddic、眨眼和注视?

0 投票
3 回答
4651 浏览

psychopy - Psychopy 和 pylink 示例

我正在努力将精神病学实验与 eyelink 眼动追踪系统相结合。这样做的方法似乎是通过 pylink。不幸的是,我对 pylink 真的不熟悉,我希望有一个将两者结合起来的实验样本。我一直找不到。如果有人能够分享一个示例或将我指向一个比 sr-research 提供的 pylink api 更易于访问的手册,我将非常感激。

谢谢!

0 投票
2 回答
1585 浏览

c++ - 用于眼动追踪的虹膜到屏幕计算

我目前正在试验眼动追踪我已经成功地使用带有轮廓和霍夫变换的 OpenCV 构建了一个虹膜追踪算法。但下一步对我来说还不清楚。我想知道我正在做的计算对于将眼睛的中心转换到屏幕上是否正确。用户的头部位置固定。

结果

我想要的是一种适用于所有眼睛偏离路线的算法。有角度计算吗?那么当用户更多地向右看时,线性?

我现在要做的是:首先我让用户查看特定点,并使用 RANSAC 来检测最接近屏幕位置的虹膜位置。我用屏幕和虹膜上的四个 2D 点来做这件事。我为此使用 Homography 来获得正确的计算。

}

0 投票
1 回答
222 浏览

psychopy - 在 Psychopy/ioHub 中为 eyelink dataviewer 设置注视事件

我正在使用psychopy和iohub通过eyelink(sr研究)系统收集眼球追踪数据。我希望能够设置两件事:固定事件(在某个时间点固定 100 毫秒,以便任务/新试验的下一部分发生)和“兴趣区域”:基本上,预先- 定义区域,以便我可以分析特定区域的凝视持续时间。我正在使用的代码只是我对眼动追踪感到兴奋的通用东西(我不是编码专家),我不知道如何修改它来完成这两件事。

谢谢!

0 投票
1 回答
170 浏览

python - Mirametrix S2 凝视跟踪器:发送通用输入 (GPI) 值总是失败

我正在使用 Mirametrix S2 凝视跟踪设备。在 API 文档 (v1.1) 中,它说该ENABLE_SEND_GPI命令允许跟踪客户端将数据插入到注视流中。复制一些示例代码,我尝试了以下操作:

我得到以下回应:

我尝试了许多不同的 id 组合,但唯一得到响应的是GPI1through GPI10,并且每一个都被拒绝Invalid GPI ID。我究竟做错了什么?

0 投票
1 回答
588 浏览

algorithm - 在 numpy 中加速矢量化眼动追踪算法

我正在尝试实现 Fabian Timm 的眼动追踪算法 [ http://www.inb.uni-luebeck.de/publikationen/pdfs/TiBa11b.pdf](在这里找到: [ http://thume.ca/projects/ 2012/11/04/simple-accurate-eye-center-tracking-in-opencv/])在 numpy 和 OpenCV 中,我遇到了障碍。我认为我已经对我的实现进行了足够体面的矢量化,但它仍然不够快,无法实时运行,而且它检测到的学生也没有像我希望的那样准确。这是我第一次使用 numpy,所以我不确定我做错了什么。

和其余的代码:

0 投票
1 回答
41 浏览

matlab - 调整大小前后视频坐标的关系

我有一个 720x576 的视频,它在分辨率为 1280x960 的屏幕上全屏播放,并带有相关的眼动仪注视坐标数据。我已经构建了一个注视跟踪可视化代码,但我唯一不确定的是如何转换我的输入坐标以匹配原始视频。那么,有人知道该怎么做吗?