问题标签 [eye-detection]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c - OpenCV 眼动追踪在某些帧上丢失
我在下面粘贴代码以跟踪双眼并在跟踪双眼时叠加图像。
我正在使用 haar xml 文件来跟踪面部的双眼并在其上覆盖图像。
我的问题是我得到这样的结果。
图 1
图 2
图 3
图 4
图 5
图 6
图 7
图 8
图 9
图 10
我在下面发布我的代码
很抱歉发布了这么多图片,但没有其他方法可以解释我的问题。
android - 用眼镜找到眼睛 OpenCv
我有这个问题,当我尝试使用适用于 android 的 openCv 库找到戴眼镜的眼睛时,我的代码不起作用。
我的代码如下:
通过这种方式,我使用我的分类器并使用此代码尝试找到戴眼镜的眼睛:
如果我离开眼镜,结果总是 0,结果总是 2。
任何人都可以帮助我吗?
提前致谢。
python - 我怎么知道哪个眼睛检测结果最好
当使用 HaarDetectObject() 函数检测眼睛时,我们得到如下结果(detectedObjects):
等等
我所知道的是:
(110, 47, 44, 44), 11) , 即 x, y, w, h, ?
x,y 是 'eyes' 中检测到的 'eye' 左上角的坐标,w,h 是确定检测到的眼睛区域的宽度和高度,所以是 cvRect 格式
如您所见,最后一次检测有 4 只眼睛 - 因此我问,我怎么知道其中哪两只是我完美检测到的眼睛?我的意思是,看到任何 i 的眼睛[i][0][0],我们可以知道眼睛是右还是左。但是在这里,我们有两只左眼和两只右眼,eyes[0] 和eyes[3] 是左眼,eyes[1] 和eyes[2] 是右眼。
这是我的问题,现在如果我只需要获得左右眼的两个检测结果中的一个,我该怎么做?
早些时候我认为 eye[i][1] 可以用作某种分数。我有一段时间无法访问互联网,所以我假设。但它不是一些质量得分,正如我刚刚发现的那样。
所以在我们的例子中,eyes[0][1] 是 13,eyes[1][1] 是 4,eyes[2][1] 是 4,eyes[3][1] 是 6。让我们称之为 Q
在其余的检测中,我看到我的其他检测的 Q 值很高,通常在 40-60 左右,所以我认为该范围内的 Q 可能表示最佳检测。但正如我之前所说,它不是。
那么我如何确定“眼睛”中的哪个“眼睛”是最好的检测?
eye-detection - 眼睛检测软件
我需要一个具有良好准确性的眼睛检测软件。该软件应该能够检测静止图像上的眼睛坐标。任何人都可以给我很好的建议。
提前致谢 :)
python - 如何进行稳定的眼角检测?
对于那些觉得它太长的人,只需阅读粗体线。
我的基于凝视估计的屏幕光标移动 HCI 项目现在依赖于最后一件事 - 凝视估计,为此我使用眼角作为参考稳定点,相对于它我将检测瞳孔的运动并计算凝视。
但是我无法从实时网络摄像头源中稳定地检测到眼角。我一直在使用 cv.CornerHarris() 和 GFTT - cv.GoodFeaturesToTrack() 函数进行角点检测。我直接在我的眼睛图像上尝试了 FAST 演示(他们网站上的可执行文件),但这并不好。
这些是我迄今为止对图像进行角点检测的一些结果。
使用 GFTT:
使用哈里斯:
视频中发生了什么:
绿色圆圈是角落,其他(粉红色,较小的圆圈)是其他角落
我使用了某种启发式方法 - 如果垂直思考,角落将位于左侧或右侧极端,并且在中间附近。我这样做是因为在许多条件下拍摄了许多快照后,除了不到 5% 的图像,其余的都是这样的,对他们来说,上述启发式方法成立。
但是这些眼角检测是针对快照的——而不是来自网络摄像头的馈送。
当我使用网络摄像头提要的方法(harris 和 GFTT)时,我就是不明白。
现在我在这两种方法中使用的参数 - 它们显然没有显示不同照明条件的结果。但是在与拍摄这些快照的光照条件相同的情况下,我仍然没有得到我从网络摄像头视频中查询的帧的结果
GFTT 的这些参数适用于平均光照条件
而这些:
适用于上面显示的静态图像
minDistance = 30 因为显然角落至少会有那么远的距离,这也是我从快照中看到的趋势。但我为 GFTT 的网络摄像头提要版本降低了它,因为那时我根本没有得到任何角落。
此外,对于 GFTT 的实时提要版本,我必须进行一些小改动:
而对于静止图像版本(pastebin 上的代码),我使用:
注意深处。
这会改变任何检测质量吗?
我通过 GFTT 方法的眼睛图像没有 32F 的深度,所以我不得不更改它并根据其余的临时图像(eignenimg、tempimg 等)
底线:我必须完成注视估计,但如果没有稳定的眼角检测,我将无法进行。我必须继续进行眨眼检测和基于模板匹配的瞳孔跟踪(或者你知道更好吗?)。简而言之,我想知道我是否犯了任何新手错误或没有做阻止我在我的网络摄像头视频流中获得近乎完美的眼角检测的事情,这是我在这里发布的快照中获得的。
无论如何,感谢您给出这个观点。任何想法如何在各种照明条件下执行眼角检测都会非常有帮助
好的,如果你没有明白我在代码中所做的事情(我是如何得到左右角的),我会解释一下:
maxLP 和 maxRP 将分别存储左眼角和右眼角的 (x,y)。我在这里所做的是,分别为左右角检测取一个变量 maxL 和 maxR,将其与检测到的角的 x 值进行比较。现在简单地说,对于 maxL,它必须大于 0;我将其分配为 20,因为如果左角在 (x,y) 处 x<20,则 maxL 将 = x,或者说,即,以这种方式找到最左角的 X 坐标。同样对于最右边的角。
我也尝试了 maxL = 50 (但这意味着左眼角几乎位于眼睛区域的中间)以获得更多网络摄像头供稿的候选者 - 我根本没有得到任何角落
此外,max_dist 存储迄今为止看到的 X 坐标之间的最大距离,因此可以衡量哪对角将是左眼角和右眼角 - 最大距离 = max_dist
另外,我从我的快照中看到眼角的 Y 坐标在 40-70 之间,所以我也用它来最小化候选池
android - android - 即使在相机预览期间没有人脸检测,也能进行眼睛检测
是否有任何库用于检测给定矩形中的眼睛(和眼睛的大小),而相机预览仍在显示其内容(不间断)?
我需要找到一种简单的方法来实现这一点。我发现有一个用于面部检测的 API,并且在 android 4 上他们还添加了眼睛检测,但前提是它找到了一张脸,但即使没有任何脸,我也需要找到一只眼睛。
iphone - iPhone中OpenCV眼睛检测器的参数
我正在尝试使用 iPhone 将 3d 玻璃映射到脸上。我正在使用以下 OpenCV 眼睛检测。然而,眼睛检测不是很可靠。稍微转一下脸,或者当眼睛变得有点狭窄时,如果我低头看着相机,眼睛检测不起作用。即使在正面,它也只能在一半的帧中检测到。我读过很多地方,调整某些参数可以帮助或预处理图像。但是我无法获得正确的组合。以下是我正在使用的预处理和参数。如果有人可以建议/分享更好的参数,请提供帮助。谢谢
pixelBuffer
从-image获取灰度图像。然后processFrame
被称为:
初始化分类器:
processFrame:进行检测
android - Android opencv 眼睛检测
我正在使用android “opencv samples - face detection”来检测人脸。它运作良好。现在我想将“眼睛检测”和“面部检测”包括在内。可能吗?如果是的话,谁能给我一些样本来检测眼睛。我已经在互联网上进行了搜索。但我没有得到任何样品。
android - 如何判断眼睛是睁眼还是闭眼人脸检测算法Android
我正在尝试检测在检测到的面部中眼睛是睁着还是闭着。我正在使用以下代码进行眼睛检测。这段代码的作用本质上是检测眼睛之间的距离。然后它计算面部的中点,并从那里检测眼睛的中心并在眼睛周围画一个圆圈。那就是眼睛检测部分。
但是我想做的是找到眼睛是闭着还是闭着。我想如何做到这一点首先找出如何检测眼睛/如何在较低级别检测眼睛之间的距离,并使用该较低级别的代码来决定眼睛是闭上还是闭上 - 即我想使用此代码能够检测眼睛以找出它是如何做到的,从而确定它是打开还是关闭。有人可以帮帮我吗?我不想使用opencv。我只想使用下面给出的代码的简单性。
javascript - 使用 javascript 和 html5 进行眼睛检测
有没有人有任何想法或步骤或算法来使用 javascript 和 HTML5 对 2d 图像执行眼睛检测?
我已经将 RGB 转换为 YCbCr 颜色空间
现在我需要一些关于眼睛提取的帮助
这是我将 rgb 转换为 YCbCr 颜色空间的代码。
请帮助我改进代码以加快执行速度。