问题标签 [isight]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - 以编程方式访问 iSight?
是否可以通过编程方式访问 macbook 上的 iSight 摄像头?我的意思是我希望能够根据命令从 iSight 相机中抓取静止帧,然后对它们进行处理。如果是这样,它是否只能使用目标 c 访问,或者也可以使用其他语言?
cocoa - iSight 中的曝光锁定
我正在 Mac 上创建对象检测程序。我想在手动曝光模式下使用 iSight 来提高检测质量。
我尝试了 iGlasses 和 QTKit Capture 来做到这一点,它确实有效,但程序运行非常缓慢且不稳定。所以我想尝试其他解决方案。
在 PhotoBooth.app 中,iSight 似乎在固定曝光模式下运行,因此可能有办法做到这一点。我阅读了 QTKit Capture 文档和 OpenCV 文档,但找不到答案。
如果您有任何想法,请告诉我。谢谢你。
python - 如何在 Snow Leopard 中使用 Python 捕获 iSight 帧?
我有以下 PyObjC 脚本:
程序没有报告任何错误,但 iSight 的绿灯从未被激活,并且代理的帧捕获回调从未被调用。这是我得到的输出:
PS:请不要回答我应该尝试PySight,我有但它不会工作,因为Xcode无法在64位编译CocoaSequenceGrabber。
cocoa - 使用 QCView 和 iSight 捕获图像
我有一个加载 Quartz 文件的 QCView,它为您提供 iSights 反馈(基本上就像 QTCaptureView)
一切正常
该按钮只需使用以下简单的代码行拍摄快照
然而,导出的图像有一些非常不稳定的着色问题,例如:http: //kttns.org/gjhnj
没有应用任何类型的过滤器。有谁知道是什么原因造成的?
iphone - 有没有办法通过 iSight 摄像头测试 HTTP Live Streaming?
我正在开发一个将使用 HTTP Live Streaming 的 iPhone 应用程序。使用 Apple 提供的工具(尤其是 mediafilesegmenter),我能够成功地分割和提供存档视频。现在我想测试直播的东西。我没有任何类型的摄像机,我只是将 iSight 内置到我的 Mac 中。有没有办法利用这台相机来测试直播?也许从命令行运行 iSight?如果是这样,我需要一个用于 mediastreamsegmenter 的端口号。
cocoa - 使用 dataWithPDFInsideRect 保存数据:只制作黑色 pdf
我有一个 QTCaptureView,我试图将视图保存为图片。到目前为止,我有这个:
但是由于某种原因,当我保存而不是看到我的 vie(iSight 相机)的图片时,我看到了一个黑色的 pdf 文件。
谢谢你的帮助
java - 使用 Java 在 Mac Os X 上获取网络摄像头流
我想获取我的 Macbook 的网络摄像头流(集成的 iSight 网络摄像头)。
我使用 Java,但我对 Objective-C 一无所知,所以我正在寻找“全 Java”解决方案。我找到了一些课堂示例,但它们是 2005 年制作的,它们不适用于我的系统。
c++ - 使用 C++ 捕捉 MacBook Pro iSight 视频
我想用 C++ 从我的 MacBook Pro iSight 中抓取一个框架,并对其进行一些详细说明。我已经知道如何在带有 QTKit 的 ObjC 中做到这一点,但是有没有办法在 C++ 中做同样的事情?
注意: 我尝试使用 macports 安装 OpenCV,但该框架似乎不支持 iSight 摄像头。
macos - 什么相当于 MacBook Pro 上的 OSX Snow Leopard 中的 /dev/video0(集成 iSight 摄像头)
我正在尝试使用 ffserver 和 ffmpeg 制作网络摄像头的实时视频流。我在网上找到了一些资源(#1 和#2),它们或多或少做同样的事情。
我在运行 OS X 10.6.5 的 MacBook Pro 上。网络摄像头是 iSight 集成摄像头。如果我查看 /dev/,我找不到任何类似于 /dev/video* 的内容,那么 iSight 摄像头安装在哪里以及如何在 ffmpeg 命令中引用它:
ffmpeg -r 15 -s 320x240 -f video4linux -i /dev/video0 http://localhost:8090/webcam.ffm
有任何想法吗?
- dmnet.bitacoras.com/archivos/software/streaming-de-una-webcam-con-ffmpeg.php
- ubuntuforums.org/showthread.php?t=665607
python - 如何使用 Python 和 PyObjC 从 Apple iSight 捕获帧?
我正在尝试使用 Python(2.7 或 2.6 版)和 PyObjC(2.2 版)从 Macbook Pro 内置的 Apple iSight 摄像头捕获单帧。
作为起点,我使用了这个旧的 StackOverflow问题。为了验证它是否有意义,我交叉引用了它似乎基于的Apple 的 MyRecorder示例。不幸的是,我的脚本不起作用。
我的大问题是:
- 我是否正确初始化相机?
- 我是否正确启动了事件循环?
- 我应该做任何其他设置吗?
在下面粘贴的示例脚本中,预期的操作是在调用 startImageCapture() 之后,我应该开始打印来自 CaptureDelegate 的“Got a frame...”消息。但是,相机的灯永远不会打开,并且代理的回调永远不会执行。
另外,在startImageCapture()过程中没有失败,所有函数都声称成功,并且成功找到了iSight设备。分析 pdb 中的 session 对象表明它具有有效的输入和输出对象,输出分配了一个委托,该设备没有被其他进程使用,并且在调用 startRunning() 后会话被标记为正在运行。
这是代码:
感谢您的任何帮助,您可以提供!