问题标签 [human-computer-interface]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
3 回答
87 浏览

human-computer-interface - 人机交互——排队等候

作为我的任务的一部分,我应该找出用户在排队等候(任何事情)时喜欢做什么。

如果你们能提供您的意见,我将不胜感激。

0 投票
2 回答
911 浏览

machine-learning - 文件名中的键值对是否有标准的文件命名约定?

我有多个以它们包含的内容命名的数据文件。例如

键和值由 - 和 _ 分隔。有更好的语法吗?是否有自动读取这些类型的文件/文件名的解析器?

这里的想法是文件名是人类机器可读的。

0 投票
1 回答
4634 浏览

image-processing - 从眼睛的图像进行凝视估计

到目前为止,我已经能够准确地检测到瞳孔和眼角。您可以在这里看到我在回答我自己的问题时上传的一些快照:

执行稳定的眼角检测

这是我到目前为止所做的。我通过查看 TLCP、TRCP 和 BLCP 来校准用户的视线,其中

而我通过看那些CP得到的对应凝视点被称为GP

凝视点GP的计算:

我从当前瞳孔中心的位置减去 TLGP 的纵坐标值,因为注视点必须落在我希望你理解的假设矩形中,它真的很简单。

我使用基本缩放系统将从瞳孔中心位置计算的凝视点线性映射到屏幕点,其中比例计算如下:

对于任何注视点 P(x,y),我将相应的屏幕点 Q(m,n) 计算为:

但问题是,即使在几乎完美的瞳孔检测之后(几乎是因为在光线不足的情况下它会产生误报。但我打算将其置于限制之下,因为我无法处理它,我没有足够的时间),我' m 的视线宽度和视线高度仍然很差。

这是一个测试运行日志:

只需查看注视点及其对应的注视检测屏幕点(在它们下方)。x,y 坐标值的巨大差异让我抓狂。星期一是最后的演讲。

在这种方法之后,我理论化了另一种方法:

校准与第一种方法相同。我会检测凝视的运动及其方向。假设给定瞳孔中心位置的任意两个点 P 和 Q,其中 P 是第一个注视点,Q 是第二个注视点,然后我们计算线 PQ 的方向和长度。 用于注视估计的推式方法

假设这条线段的长度是 L。然后我们将 L 缩放到屏幕比例,假设 L 是屏幕比例中的 D,并且给定注视移动的方向,我们将屏幕上的光标从其最后一个静止点移动,说R,D距离,到一个新的点S,该点将被计算为长度为D的线段的终点,和起点S。形象化的表示如图所示。因此,基本上,我不会将任何凝视数据映射到屏幕点,我基本上是跟踪凝视,并将其转换为“推送”以应用于屏幕上的光标。但我还没有实现它。因为它实际上并没有将视线映射到屏幕坐标,因此可能是错误的。这个理论的动机来自于 sourceforge 上的 eViacam 项目——它们基本上跟踪你的脸,并相应地移动鼠标。在校准中,他们只是计算你的脸沿着轴移动了多少。

底线:因此,如果你们中的任何人对如何从完美处理的眼睛图像中检测用户的注视有任何想法 -一个检测到瞳孔中心和眼角的图像,请告诉!我只有大约一天的时间,我知道已经很晚了,但我只需要任何可以帮助我的神奇想法。

0 投票
1 回答
1018 浏览

algorithm - 使用瞳孔和闪烁 xy 坐标估计凝视

我已经设法使用opencv跟踪中心xy坐标和瞳孔半径。

现在我想用它来测量凝视。

如果有人可以帮助我解决它的理论部分,也许我将能够对其进行编码。

任何开源程序也可以。

更新:我现在也能够追踪角膜上的闪光。根据我的在线研究,将瞳孔的坐标与闪烁进行比较以估计凝视。我该怎么做呢?

0 投票
2 回答
2304 浏览

c# - Hand gesture recognition for sign language using SVM (Support Vector Machine)

I am a student assigned to do a project under sign Language interpretation. I have done all segmentation and morphological operations. Further, its time to classify gestures, and i have gone through different journals. I have little doubt that what features suitably satisfy my classification. I have chosen C# as a programming language and SVM Classifier for classification. Please list me out some possible features. If possible, well document with complete mathematics.

Features I have found: Shape Descriptors like aspect ratio, circularity, spreadness Hu - Variants and moment Features

Hand Segmented ImageFinal Edge Detected Image

I have recently found that re-sizing and normalization of an image is done before feature extraction. And they suggest the algorithm like:

  • Resize into certain resolution say 100*100
  • vertical allignment to first principle component of image.
  • lastly, reconstructing boundary box that fits the image.

I am with doubt that what if the finger alignment. If the training finger is 45 degree aligned with main palm axis and is 10 unit long, what if the testing data appears as it is aligned other than 45 degree and 5 unit long??

And Encountered features: Finger count and principal component analysis(PCA). But what does PCA physically means?

0 投票
1 回答
207 浏览

android - 什么时候应该在 AlertDialog 中使用标题?

从用户界面的角度来看,为什么有一个title选项AlertDialog?为什么一个message人不够用?我们真的需要一个标题吗?如果是这样,请提供标题有用的视觉示例。

AlertDialog 文档显示AlertDialog没有标题,对我来说看起来很完美:

没有标题的警报对话框

0 投票
0 回答
29 浏览

human-computer-interface - 是否有研究使用不同的控件(按钮、滑动条等)来执行不同的操作

基本上,我正在尝试研究如何在图形用户界面(GUI)中使用不同的组件来执行不同的操作。例如:如果我们正在测试音量,三个测试将是一个按钮、一个滑动条和一个用于输入值的文本框。我正在寻找很长的那些行,但我没有找到任何。我知道这听起来像是常识,但重要的是我用基于证据的事实来支持我的所有设计决策。谢了,兄弟们!

0 投票
2 回答
791 浏览

linux - 无互联网语音触发识别

手持设备上的语音识别通常由按下按钮触发。如果没有它,我该如何触发语音识别?我的基于 Raspberry PI 的设备故意没有用户可以手动交互的任何东西——只有一个麦克风挂在墙上。

我正在尝试实现一种方法来让它理解一个简单的触发命令,该命令将启动一系列动作。简而言之,我想在“听到”音频触发器时运行单个 .sh 脚本。我不希望它理解其他任何东西,而只是一个触发器 - 它没有任何意义,它必须从触发器本身解码 - 比如脚本或参数的名称。一个非常简单的功能 - “听到触发器 -> 执行 .sh 脚本”

我探索了不同的选择:

  1. 将音频流连续发送到谷歌语音识别服务 - 不是一个好主意 - 浪费了太多的流量和资源

  2. 让一个无互联网的语音识别应用程序持续收听音频流并“挑选”触发词 - 这有点好,但几乎浪费资源,并且这些系统必须学习音频样本 - 这几乎消除了快速为设备设置自定义名称

  3. 使用某种音高处理让它对一系列响亮的声音做出反应 - 拍手两次或类似的东西 - 还不错,但我想我的手在我得到正确测试后会掉下来,否则我会被我的家庭成员,因为我通常会在晚上睡觉时尝试我的玩具。

  4. 口哨识别 - 与之前的选项没有太大区别,但你的手掌不会酸痛,如果我学会安静地吹口哨,我很有可能在测试中幸存下来。我能够找到 IBM 的一篇关于通过口哨命令控制计算机的文章 - 该方法与本地语音识别应用程序几乎相同,但您教它理解不同的口哨序列。然而,从那以后我不明白我怎么能教它理解任何口哨,不管它的语气如何。

我有点喜欢吹口哨的想法——看起来它应该是其他选项中资源消耗最少的——我该怎么做?

鉴于我受到 Raspberry PI 硬件的限制,是否还有其他可以轻松实现的声音触发器?

0 投票
1 回答
7127 浏览

human-computer-interface - 人机交互与交互设计

根据维基百科,人机交互涉及人(用户)与计算机之间交互的研究、规划和设计。

交互设计是以下实践:

  • 了解用户的需求和目标
  • 为用户设计工具以实现这些目标
  • 设想系统的所有状态和转换
  • 考虑到用户环境和技术的限制

那么学习人机交互硕士和交互设计硕士有什么区别呢?我认为交互设计的范围更广,也包括人机交互。哪个更实用?

0 投票
1 回答
527 浏览

multithreading - 多线程和用户界面

好的,我们开始吧。最近我喜欢上了关于界面设计的人机交互主题。 我发现有一些方法可以实现多线程接口,以减少系统响应的延迟。 莫罗弗。这也可以说设计用户界面与STD关系密切。 因此,我想知道是否有任何方法或技术可以找到可以被视为线程的 UI 的给定 STD 的独立部分?