问题标签 [eye-tracking]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
385 浏览

multithreading - 时间问题 Psychopy PyGaze EyeTribe Eyetracker(多线程)

我有一个实验,我使用 PsychoPy / PyGaze 呈现刺激,并使用 EyeTribe 眼球追踪器跟踪眼球运动。在这个实验中,我更新了每帧(60 Hz)上两个视觉刺激的大小。我事先准备好每一帧,然后循环遍历所有屏幕对象并呈现它们。与此同时,一个连续的声音正在播放。当我在虚拟模式下运行此实验时(鼠标移动用作注视位置的模拟),视觉呈现没有时间问题。但是,当我在执行眼动追踪时运行实验时,视觉呈现的时间不再准确(帧持续时间的可变性更高)。

我尝试更多地研究多线程,但在 PyGaze 的 pytribe 脚本中,我找不到任何证据表明一个线程正在等待来自眼动追踪线程的事件。所以,我不知道如何找出导致时间问题的原因或如何解决这个问题?(我希望我足够具体地解释了这个问题)。

0 投票
1 回答
6770 浏览

video - MP4的时间戳信息

我想寻求一种简单的方法来获取 mp4 文件的时间戳信息。(对不起,我对编解码器不熟悉。)

我正在阅读 Tobii Pro Glasses SDK 文档,该文档解释了如何将帧与眼动追踪数据同步,其中他们使用了称为 VTS 的术语。Goolge 找不到确切的含义,所以我想问一下 VTS 真正代表什么以及如何从 mp4 文件中获取它。非常感谢!

0 投票
2 回答
2019 浏览

c# - C# 获得 YouTube 视频的时长

我正在开发一个 EyeTracking Windows Forms 应用程序,该应用程序在屏幕上打开一个 YouTube 视频,并在视频播放时开始跟踪眼球运动。我需要知道视频的持续时间才能进入 EyeTracking Stream。

1)我是否应该找到一种方法来获取视频的持续时间(例如,假设我们有一个方法,YoutubeVideo.GetDuration()),如果是这样,怎么做?

2)或者我应该找到一种方法让我的程序知道视频已经结束,并在 YouTube 视频结束时结束我的 EyeTracking Stream,如果是这样,怎么办?

0 投票
0 回答
1285 浏览

python - 眼控轮椅眼动追踪 OpenCV+Python

我正在尝试实现一个代码来获取眼睛的质心并跟踪眼球运动以控制轮椅。应用于图像的代码是:

输出是:

瞳孔 质心

毫无疑问,我写的代码给了我一个很好的起点。但是当我尝试在视频上实现这一点时,输出是如此的糟糕。

在我使用的视频代码中,haarcascade_righteye_2splits.xml或者haarcascade_leftteye_2splits.xml更具体地针对相机检测什么。

任何帮助我如何在视频上做眼瞳跟踪代码,左,右,眨眼。

我正在使用 OpenCV 3.1.0-dev 和 Python 2.7.x

0 投票
1 回答
3665 浏览

python-2.7 - 使用霍夫圆变换的眼瞳跟踪

我有一个眼控轮椅项目,我需要检测眼睛的瞳孔并根据其运动轮椅移动。作为对我正在编写的代码的测试,我在静态图像上执行了脚本。图像正是放置相机的位置。相机将是红外相机。

注意:我在 Windows Platfrom 上使用已编译的 OpenCV 3.1.0-dev 和 Python2.7

我想要使​​用 Houghcircle 变换检测到的圆:

原始图像 结果

之后,我正在编写代码以仅通过使用红外摄像机来检测相同的事物。

静态图像代码的结果对我来说非常可靠,但问题是红外摄像机的代码。

到目前为止我写的代码是:

我总是收到这个错误:

对于静态图像的代码有任何问题,代码是:

0 投票
0 回答
498 浏览

opencv - 如何训练形状预测器以使用 dlib 跟踪瞳孔?

如果我可以训练模型跟踪瞳孔,那将非常有用。有可能这样做吗?如果可能的话,我如何训练形状预测器使用 dlib 跟踪眼睛的瞳孔?

0 投票
0 回答
672 浏览

java - Java GUI 使用 The Eye Tribe 校准基于网络摄像头的眼动追踪

我正在使用The Eye Tribe Java SDK进行研究以跟踪眼睛注视移动。我已经使用 Gradle 在 IntelliJ IDEA 中成功构建了它。

我的第一个问题是:我们可以在网络摄像头上进行这项工作以进行测试吗?

如果它与网络摄像头一起使用,我想运行“javafx-sample”来查看 UI。但他们只提到了基于 C# 的 UI 校准(参见http://dev.theeyetribe.com/csharp/#csharp_calibration)。

谁能帮助我使用网络摄像头使 The Eye Tribe 在Java UI中工作?

0 投票
1 回答
253 浏览

psychopy - 使用 EOG 进行精神病眼动追踪

我正在设计一个实验,要求参与者保持固定在中央十字架上,我将使用 EOG 电极监测他们的眼球运动(我不需要关于他们的眼睛如何移动的详细信息,我只需要知道是否或者在任何给定的试验中都没有发生眼球运动)。我已经建立了实验,并设置了并行端口/触发通道等。但是,在进行适当的实验之前,我需要某种校准程序来“告诉”psychopy 眼球运动的样子,以便在实验期间可以检测到它们(我不必爬过大量的原始 EOG 输出)。任何人都可以建议一种方法来解决这个问题,或者向我指出一些有用的资源吗?

任何意见,将不胜感激!++++++++++++++++++++++++++++++++++++++++++++++++++++++ ++++++++++++++++++++

编辑:

不幸的是,我还没有数据可以向您展示。我正在使用四个电极(两个用于垂直 EOG,位于一只眼睛的上方和下方;两个用于水平,一个位于每只眼睛旁边)。我正在以 512 Hz 的采样率录制。我的 Psychopy 实验从 Excel 表中读取刺激,该表具有指定两个变量的水平组合的触发值。一个变量是刺激位置(刺激呈现在中央、注视点左侧或右侧),另一个是所需响应(每个刺激都需要左手或右手的按钮按下响应)。因此,触发值指定了 6 种类型的事件。EOG 记录(每次屏幕刷新 1 个样本)对这些事件进行时间锁定。

澄清一下:参与者被指示继续专注于固定,但是我们预计会看到一些对外围刺激的扫视,我们希望排除发生这种情况的任何试验。

我希望这会有所帮助

0 投票
0 回答
144 浏览

unity3d - 将平滑注视坐标转换为原始注视坐标

如何以数学方式将平滑的注视坐标(在 [0,1] 范围内)转换为原始注视坐标(像素坐标)(我正在使用 Eyetribe 眼动仪)?我尝试将平滑凝视坐标与屏幕分辨率相乘,但这不起作用,因为所有点都聚集在一个地方。我想要原始坐标来获得游戏屏幕上注视位置的热图。我在 unity3d 中构建了游戏。

0 投票
2 回答
1211 浏览

python - 瞳孔阈值(眼动追踪)- 使用 C++ 的 OpenCV

我刚刚开始研究瞳孔跟踪。我对瞳孔做了一些阈值处理,但仍然没有需要的准确。下面是我当前的阈值图像

当前阈值图像

图像

我希望只看到轮廓中的瞳孔,但不幸的是我也看到了其他噪音。下面是我的代码

我想知道我工作的最佳阈值方法,以便仅跟踪学生。另外,如果您认为,请告诉我,这可以比我所做的简单得多。