问题标签 [eye-tracking]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
latency - 了解眼动追踪的延迟
在眼动追踪的背景下,我无法理解延迟。我目前使用集成到头戴式显示器中的 30Hz 眼动仪进行视觉研究。
在我看来,眼睛实际移动的时间与眼动追踪软件提供这些坐标的时间之间存在总体延迟。此延迟有两个组成部分 -> 1)由于眼动仪成像频率(30fps - 33.3ms)造成的延迟 2)由于提取数据和提供坐标的实际算法造成的延迟。
我认为总延迟是 1) 和 2) 的总和是否正确?
我与制造眼动仪的公司进行了交谈,他们说眼动追踪的延迟为 60 毫秒。这是否意味着我的整体延迟是 60ms + (1000/30Hz) ~ 93.3ms ?
或者 60 毫秒的数字是否以某种方式考虑了眼睛摄像头的 FPS?
r - 通过 8x5 网格进行眼动追踪数据的寻路
我有一些来自 2560x1600 显示器的时间序列眼动追踪数据(xy 坐标随时间变化)。根据 40 个大小相同的 320x320 像素块,我已将这些坐标减少为 1-40 范围内的单列值。见下图说明:
对于 40 个块中的每一个,我想返回系列中最常跟随的块(即时间 +1)以及概率值(频率目标/频率全部)。
最终目标是绘制一个连接所有块的单个箭头(如果可能,在 ggplot 中),其粗细对应于概率值。
某种加权路由算法可能会起作用,其中权重由频率指定。但我不确定如何进行。任何帮助将不胜感激!
这是我的数据集的一小段摘录。变量是::pid
参与者 ID screen
,:正在查看(两个)监视器中的一个,xcoord
:x 轴(像素)ycoord
,:y 轴像素,time
:以毫秒为单位,gsqr
:1-40 块。
数据:
python-2.7 - 用于眼动追踪的 IoHub
ioHub 可以与 Eye Tribe 眼镜一起使用吗?
使用 ioHub,是否可以检测到 sacaddic、眨眼和注视?
psychopy - Psychopy 和 pylink 示例
我正在努力将精神病学实验与 eyelink 眼动追踪系统相结合。这样做的方法似乎是通过 pylink。不幸的是,我对 pylink 真的不熟悉,我希望有一个将两者结合起来的实验样本。我一直找不到。如果有人能够分享一个示例或将我指向一个比 sr-research 提供的 pylink api 更易于访问的手册,我将非常感激。
谢谢!
psychopy - 在 Psychopy/ioHub 中为 eyelink dataviewer 设置注视事件
我正在使用psychopy和iohub通过eyelink(sr研究)系统收集眼球追踪数据。我希望能够设置两件事:固定事件(在某个时间点固定 100 毫秒,以便任务/新试验的下一部分发生)和“兴趣区域”:基本上,预先- 定义区域,以便我可以分析特定区域的凝视持续时间。我正在使用的代码只是我对眼动追踪感到兴奋的通用东西(我不是编码专家),我不知道如何修改它来完成这两件事。
谢谢!
python - Mirametrix S2 凝视跟踪器:发送通用输入 (GPI) 值总是失败
我正在使用 Mirametrix S2 凝视跟踪设备。在 API 文档 (v1.1) 中,它说该ENABLE_SEND_GPI
命令允许跟踪客户端将数据插入到注视流中。复制一些示例代码,我尝试了以下操作:
我得到以下回应:
我尝试了许多不同的 id 组合,但唯一得到响应的是GPI1
through GPI10
,并且每一个都被拒绝Invalid GPI ID
。我究竟做错了什么?
algorithm - 在 numpy 中加速矢量化眼动追踪算法
我正在尝试实现 Fabian Timm 的眼动追踪算法 [ http://www.inb.uni-luebeck.de/publikationen/pdfs/TiBa11b.pdf](在这里找到: [ http://thume.ca/projects/ 2012/11/04/simple-accurate-eye-center-tracking-in-opencv/])在 numpy 和 OpenCV 中,我遇到了障碍。我认为我已经对我的实现进行了足够体面的矢量化,但它仍然不够快,无法实时运行,而且它检测到的学生也没有像我希望的那样准确。这是我第一次使用 numpy,所以我不确定我做错了什么。
和其余的代码:
matlab - 调整大小前后视频坐标的关系
我有一个 720x576 的视频,它在分辨率为 1280x960 的屏幕上全屏播放,并带有相关的眼动仪注视坐标数据。我已经构建了一个注视跟踪可视化代码,但我唯一不确定的是如何转换我的输入坐标以匹配原始视频。那么,有人知道该怎么做吗?