问题标签 [webcam-capture]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
806 浏览

gstreamer - uvch264 中的 vidsrc 失败

以下管道失败。如何调试这个?出了什么问题?

但是 vfsrc 工作正常。

谢谢,
斯内哈

0 投票
3 回答
1649 浏览

javascript - 如何使用 grails 从网络摄像头捕获图像并保存?

试图从网络摄像头捕获图像并希望保存在驱动器上

使用 Grails 2.3.7

脚本代码

控制器端:

但是图像没有保存在驱动器上。

请帮助我..谢谢..

0 投票
1 回答
7487 浏览

ffmpeg - avconv / ffmpeg 网络摄像头捕获,同时使用最少的 CPU 处理

我对 avconv(或 ffmpeg)的使用有疑问。

我的目标是从网络摄像头捕获视频并将其保存到文件中。另外,我不想使用过多的 CPU 处理。(我不希望 avconv 缩放或重新编码流)

因此,我正在考虑使用来自网络摄像头的压缩 mjpeg 视频流并将其直接保存到文件中。

我的网络摄像头是 Microsoft LifeCam HD 3000,它的功能是:

什么是 avconv 命令可以直接保存压缩流而无需 avconv 进行缩放或重新编码。

现在,我正在使用这个命令:

我不确定这个命令是否具有 CPU 效率,因为我没有告诉任何地方使用网络摄像头的 mjpeg 压缩功能。

avconv 是否在开始记录文件之前负责网络摄像头设置的配置?它总是在原始流上工作并对原始流进行缩放和编码吗?

感谢您的回答

0 投票
0 回答
126 浏览

matlab - 如何在 MATLAB 中使用网络摄像头在 While 循环内拍照?

问题的情况:

Arduino 测量物体的长度。如果长度在预定间隔之间,则 Arduino 串行在特定 COM 端口上写入“1”。MATLAB 将在同一个 COM 端口上读取,因此我们可以在 MATLAB 中读取“1”。对于每个“1”(由 Matlab 读取),网络摄像头会拍摄一张照片。下面的 While 循环让我们有机会在 MATLAB 中读取“1”。

但是网络摄像头无法拍摄我们想要拍摄的照片。

我们有以下问题:

第一次读取“1”(通过 Matlab),没有拍照。第二次拍了一张照片。到第三个“1”时,前一张照片发生了一些变化(但 Matlab 没有给出第三个“1”拍摄的照片。然后到第四个“1”时,Matlab 给出了第三个拍摄的照片。

有人知道我该如何解决这个问题吗?

0 投票
1 回答
246 浏览

java - WebcamCapture 在 Netbeans 中工作但不在 jar 文件中?

大家好,我有以下问题。

我正在使用 Webcam Capture API 来捕获图片。问题是,当我在 Netbeans 中编译所有内容时,一切正常。但是,如果我将所有内容编译到一个 jar 文件中,然后再次运行它,那么除了网络摄像头功能之外,一切都可以正常工作。你们有谁知道问题可能出在哪里,因为我不知道了。

如果我从页面http://www.java2s.com/Code/Jar/w/Downloadwebcamcapture033jar.htm下载示例 jar 文件, 我也无法启动主 jar 文件。

我已经尝试更改 JDK 版本,但没有奏效。

谢谢您的帮助

0 投票
1 回答
2583 浏览

live-streaming - 通过浏览器流式传输网络摄像头和麦克风输入

简短版本:
我需要一个浏览器内的解决方案来将网络摄像头和麦克风流传送到服务器。

长版:
我正在尝试创建一个实时流媒体应用程序。到目前为止,我只设法弄清楚了这个工作流程:

  1. 客户端创建流(这里可能需要一些转码器)
  2. 客户端向服务器发送(发布?)流(基本上托管RTMP我的服务器应该可以访问的 /other 流)
  3. 服务器转码、转码等,并将流发布到 CDN
  4. 观众观看发布的流

理想情况下,我想要一个基于浏览器的解决方案,该解决方案需要从客户端进行最少的设置(可能可以接受 Flash 插件下载)并将网络摄像头和麦克风输入流式传输到服务器。我要么不知道确切的关键字,要么正在寻找错误的东西,但我找不到合适的解决方案。

涉及使用ffmpegvlc发布流的解决方案并不是我真正想要的,因为它们需要额外的下载和设置,并且不仅限于网络摄像头和麦克风输入。WebRTC可能不会提供相同的质量,但如果一切都失败了,我认为它可以完成工作,至少对于某些浏览器而言。

我正在使用 Ubuntu 进行开发,并且刚刚激活了 Wowza 流媒体服务器和云的试用许可证。

ffmpeg/vlc等。人。唯一的出路?或者有什么东西可以在单个浏览器选项卡中完成这项工作?

0 投票
3 回答
5105 浏览

windows - 使用/作为网络摄像头视频捕获和录制桌面屏幕

网络摄像头让其他人可以查看用户或它前面的其他对象的静态图片或动态视频。我想以一种开始捕获桌面屏幕而不是它前面的方式来配置网络摄像头。

我想使用 FFMPEG 库操作通过网络摄像头捕获的桌面屏幕。如:

我想使用同一个应用程序来捕获我的桌面屏幕,只有在这种情况下,网络摄像头才能捕获我的桌面屏幕。因此,上面的命令将开始记录网络摄像头将捕捉的内容,我希望它捕捉我的桌面屏幕。

注意:我知道捕获、录制或流式传输桌面屏幕的其他方法,但我想通过网络摄像头来实现。

到目前为止我尝试了什么:我尝试了一些假/虚拟网络摄像头软件(manycam、sparkocam 等),但我认为它们不能满足我的真正需求。

PS我在另一个社区发布了同样的问题,但没有得到任何回应。

请指导我是否有任何方法可以实现这一目标?谢谢

0 投票
1 回答
1293 浏览

python - 是否可以并行读取网络摄像头帧?

我有一个简单的Python脚本,它使用OpenCV捕获网络摄像头。我的网络摄像头可以流式传输 30 FPS,但由于我的Raspberry Pi不够强大,我只能读取 ~ 20 FPS。运行脚本时,我的 CPU 的一个核心最高达到 100%,但其余核心保持不变,所以我试图将读数分成我能做到的最多线程,以最大限度地使用我的 CPU潜力并轻松达到 30 FPS。

那么是否可以并行读取网络摄像头帧?

这是我的尝试:

VIDIOC_QBUF: Invalid argument运行此脚本时,我在终端中得到了几个(通常是 4 次)。睡眠值越大,我收到的错误消息就越少。例如,如果 I time.sleep(0.1),我可能会收到 2-3 条错误消息,而不是 4 条。

这是有问题的,因为在我的脚本的第二部分(未在此处发布)中生成的视频文件已损坏。此错误仅在并行读取网络摄像头馈送时发生。按顺序执行所有内容时,视频文件很好,我可以毫无问题地阅读它。

非常感谢任何见解。干杯!

编辑:VIDIOC_QBUF: Invalid argument我认为在阅读前几帧后发生错误消息 也很重要。例如,我可以启动我的脚本,这几乎会立即触发这些错误,但随后我的脚本可以在“无限”时间内正常运行,而不会出现任何错误消息。

0 投票
2 回答
2680 浏览

java - Webcam Capture API - 如何让它在 Raspberry Pi 上工作?

这是我在 stackoverflows 论坛上的第一篇文章。

我喜欢参考这个 sarxos 答案https://stackoverflow.com/a/31871593/5510077

我想我完全按照 API 的创建者 Bartosz Firyns 的说明让他的 Webcam Capture 0.3.10 API 在我的 Raspberry Pi Model B+ 上工作。

我目前包含在我的类路径中的文件是:

  • slf4j-api-1.7.2.jar
  • slf4j-simple-1.7.2.jar
  • v4l4j-0.9.1-r507.jar
  • 网络摄像头捕获-0.3.10.jar
  • 网络摄像头捕获驱动程序-v4l4j-0.3.10-20140923.154112-11.jar

我使用这个 sarxos 的示例来测试 API,但是使用 V4l4jDriver,因为我无法让 BridJ 在 Raspberry Pi 上工作:

并收到此错误:

p>

这些链接已失效,因此我无法测试这些 jar 文件:

网络摄像头-capture-0.3.11-SNAPSHOT.jar

网络摄像头捕获驱动程序-v4l4j-0.3.11-20150713.101304-10.jar

这些天有什么办法可以让这个 API 在 Raspberry Pi 上运行?

0 投票
1 回答
1907 浏览

webcam - 在 Android 设备中未检测到 USB 网络摄像头

我创建了一个基于 UVC 的应用程序来连接 USB 外部网络摄像头 [Logitech c170] 与 android 设备。我遵循此链接中的编码。构建项目后,执行 Native NDK Build 操作并将 libs 文件夹复制到我的目录中。

该程序已成功构建并运行,但它不会显示与我的平板电脑的 USB 连接。

在 device_filter.xml 文件中,我还包含了我的网络摄像头的产品 ID 和供应商 ID(供应商 ID:046D,产品 ID:082B)。

如何将我的网络摄像头连接到安卓设备。引导我!!

提前致谢 !..