问题标签 [isight]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
macos - 从 USB 而非 iSight (OSX) 捕获 OpenCV
在 Mac OSX 下将 OpenCV 与 MacBook Pro 一起使用时,我无法访问外部 USB 摄像头而不是内置 iSight。
将参数传递给cvCaptureFromCAM(index)
0 或 -1 以外的函数时,我总是会得到一个
Warning: Max Camera Num is 0; Using camera 0
相机是索尼 PS3 EYE,与 macam 驱动程序和 quicktime 组件完美配合。
然而,我无法使用始终默认为内置 iSight 的 OpenCV 访问它(即使尝试使用不同的程序“占用”iSight)。
有任何想法吗?
非常感谢您,非常感谢您的帮助!
java - 将 jbyteArray 从(objective-c)JNI 传递到 Java 的最佳方法是什么?
我目前正在从 iSight 摄像头检索图像数据,我想将其交给 Java 进行处理。我最初尝试将数据放入 jbyteArray 并返回 jbyteArray。这对每个进程有效。再次调用本机函数将导致无效的内存访问。
由于我正在使用 Objective-c 和 Cocoa,因此我必须使用 JNF_COCOA_ENTER(...) 和 JNF_COCOA_EXIT(...) 函数。可悲的是,如果我不能返回 jbyteArray,因为这样做会导致 JNF_COCOA_EXIT(...) 不会被调用。建议使用直接 ByteBuffer 将数据从 JNI 域传递到 Java 域。不幸的是,我一直在使用的所有资源和参考资料并不足以让我的大脑理解这一点。如果这是一个“duh”时刻或已经被问到(我已经搜索但没有运气),我深表歉意,但是......
1) 将此图像数据带入 Java 的最有效方法是什么?
2)我应该如何使用 ByteBuffer 类来完成这个?(如果相关)
谢谢!
ffmpeg - 从 Macbook iSight 网络摄像头捕获一帧时 ffmpeg -ss 标志出现问题
大约五年来,我在 shell 脚本中使用 ffmpeg 从我的 linux'd-up Macbook 的 iSight 中抓取一帧:
我刚刚将我的 Ubuntu 发行版从 Lucid 升级到了 Natty(ffmpeg 版本 0.6.2-4:0.6.2-1ubuntu1)。现在,该语法打开了 iSight,但无限期挂起。
如果没有“-ss”标志,它似乎成功地抓取了第一帧并立即退出——输出的唯一区别是:
但是,“-ss 1.5”对于将帧捕获延迟 1.5 秒是必要的,以使相机有足够的时间来调整曝光。
-itsoffset 标志似乎很有希望,但似乎并没有改变 ffmpeg 的行为(即不挂起,但没有延迟)。
有任何想法吗?
windows - Isight 摄像头 + OpenCV + VMWARE
我在 OS X 上运行 VMWARE 来运行 Windows 7 和 Visual Studio 2010。我正在使用 OpenCV 来做一些图像和视频处理软件。我想尝试开始对实时视频进行处理。
我运行的代码来自:Real Time Canny
我将 cvCaptureFromCAM 的输入参数更改为 -1,因为我拥有的唯一相机是 Isight(已安装驱动程序)。当应用程序运行时,我只得到一个灰屏。有谁知道如何让 Isight 相机在这种情况下工作?
设置:VMWARE Fusion:4.0.2 操作系统:Windows 7 OpenCV:2.3
macos - 如何从 CVImageBufferRef 类型的每个像素中获取信息?(OSX)
我正在尝试从 QT 电影的各个帧中提取像素数据。
我想我需要使用 CV,因为 QTKit 和 NSImage 会太慢......
我需要比较包含网络摄像头 (iSight) 的当前帧的缓冲区 (CVImageBufferRef) 中图像的每个像素。所以我需要速度。
对不起我的英语不好,我是意大利人。
macos - OSX Lion - iSight 摄像头终端使用触发从显示器睡眠中唤醒?
我有 3 台 Mac - MacBook Pro 15"、MacBook Pro 13" 和 MacBook Air 11"。
15" 一直呆在家里,另外 2 个用于移动使用,所以我想在我不在家的时候使用 15" 进行远程视频拍摄或快照。我一直在使用一个名为“imagesnap”的命令行工具,它在终端(和通过 SSH)上运行良好,并允许我设置在后台运行的批处理文件。
但是,我有一个奇怪的问题,使用该工具会触发 15" 从显示器睡眠中唤醒,但其他 2 台 Mac 都没有显示此行为。我不想使用不必要的功率,所以这很烦人。
我对调试 imagesnap 工具本身不感兴趣,我认为这不是问题。不过,我想弄清楚的是,确定为什么一台 Mac 以一种方式运行而另外两台 Mac 以另一种方式运行的最佳方法是什么?我查看了电源设置,无法弄清楚为什么 15" 显示屏在我拍摄图像后会立即打开,但其他 2 个却没有 - 设置几乎相同。我也尝试过运行运行应用程序的类似配置。
我可以查看日志文件中的内容吗?一个正在运行的进程?要比较的配置差异?或者,如果不能解决问题,有没有办法阻止系统在从网络摄像头拍摄图像后立即唤醒显示器?
java - 在 OSX 上通过 Java 访问 iSight
因此,在这里和其他地方进行了大量挖掘之后,没有好的、简单的、当前的方法可以从 Java 中的 iSight 中获取图像。所以首先,如果有人能指出一个很好的方法来做到这一点,我会很高兴,如果你想到了,OpenCV 不适用于 Java。
这是我正在考虑使用的一种解决方法,即使它存在令人难以置信的缺陷:
- 打开照相亭
- 使用java 的Robot 类来抓取屏幕部分的图像,其中包含来自iSight 的提要。
objective-c - iSight 环境传感器
我意识到没有任何关于使用 isight 光传感器的公开文档,但是诸如 ShadowBook (此处显示)之类的程序能够访问亮度数据,我只是想知道是否有人能够获得类似的结果和知道如何访问这个传感器?谢谢!
macos - 是否可以以编程方式打开 iSight 摄像头?
我想在我的 Mac 上设置自动相机捕捉,我正在使用isightcapture
程序。
但是,我需要打开相机,你知道我该怎么做吗?我的技能非常有限,Objective-C
并且RubyCocoa
无法在我的环境中工作(安装了 ruby 1.9)。
macos - 什么进程使用我的相机(Macbook)
如何在 MacOS 上检测哪些进程使用我的 cam?我想拍照时出现错误: