问题标签 [uvc]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
raspberry-pi - 在带有 C310 的 Raspberry pi 3 上使用 UV4L
我正在尝试让 uv4l 与罗技相机 310 一起工作。我转到地址 XXX:8090/stream,它工作了几秒钟然后停止。为了取回它,我需要重新启动 pi。此外,它有时会输出这些:
我遵循了本指南http://www.linux-projects.org/uv4l/installation/。我看过无数关于人们做同样事情的视频,但这对我不起作用。让我知道是否需要其他任何东西来帮助解决这个问题。
uvc - 通用视频类 - 如何关闭 AGC
我的 UVC 使用相机正常运行。我可以通过以下方式控制亮度和对比度:
相机似乎具有 AGC 功能,因此如果视图变暗,它会自动提高亮度级别。我想防止这种情况发生,我希望亮度级别只能是手动的。
VideoDeviceController 似乎有很多属性,这是在某个地方吗?
谢谢
ubuntu-16.04 - 网络摄像头 + 外接摄像头故障,无法访问 /dev/video*:没有这样的文件或目录
我希望有人可以帮助我!
我正在使用 Toshiba SATELLITE-L50-A-1DN,将相机连接到 USB 端口时遇到问题,以及无法识别集成网络摄像头。
我正在使用内核 4.13.0-45-generic 的 Ubuntu 16.04
插入外部网络摄像头后,lsusb
没有变化,表示没有识别出任何设备。
ls -ltrh /dev/video*
返回错误:ls: cannot access '/dev/video*': No such file or directory
我已经尝试安装 uvcvideo,但已经安装了最新版本。与此相关,我无法访问使用我尝试使用的两台摄像机之一所需的 Video4Linux 模块。
我知道这里发布了同样的问题:无法访问/dev/video*:没有这样的文件或目录,但我似乎无法使该解决方案适合我。
camera - libuvc_ros 错误:无法启动 [libuvc_camera/camera_node] 类型的节点
我已经克隆libuvc_ros
到我的catkin_ws/src
and do rosmake libuvc_camera
,我得到了这个错误:
错误:无法启动类型 [libuvc_camera/camera_node] 的节点:无法在包 [libuvc_camera] 中找到节点 [camera_node]
我确实安装了ros-kinetic-uvc-camera
and ros-kinetic-libuvc-camera
,我很迷茫。有人可以告诉我正确的步骤是什么吗?
image - 如何从 cypress CX3 传输的包中解析 Raw16 数据以进行 YUV 格式化
我使用 cypress USB3.0 控制芯片(CX3)从我的传感器传输图像数据。但是CX3的SDK不支持raw16数据格式,我认为raw16和yuv2的位宽都是16位,所以我让传感器输出raw16数据格式,使用yuv2格式将我的原始数据传输到主机,我真的通过matlab或能够预览视频流的e-cam工具从CX3获取数据。但是会导致颜色失真,因为接收器将数据(在UVC协议下)视为YUV数据。所以我的问题是:
原始数据顺序和 yuv 数据顺序有什么不同?或者说,接收器(相机工具)如何处理 yuv 数据和原始数据?
如何从包含原始数据但使用 yuv 格式打包的 UVC 包中解析原始数据?
java - UVCCamera 不适用于特定设备
我正在尝试在我的 Android 应用程序上使用 OTG 电缆连接 USB 相机,为此我使用了UVCCamera 存储库。所有示例和我的应用程序在我测试过的大多数设备上都可以正常工作,但在摩托罗拉 E4 上却不行(我特别需要在其上运行应用程序)。
我注意到的是,在我授予使用权限后,UsbDevice 立即分离,然后作为新设备重新连接。如果我不检查是否发生这种情况,我会收到 NullPointerException,因为在尝试获取原始描述符时与设备的连接为空。
以下是我收到的错误消息:
Google Play 上使用相同库连接 USB 相机的其他应用程序在摩托罗拉 E4 上也可以正常工作。
我前段时间也在github上发布了这个问题,但没有得到任何答案。
android - 在 Android 手机上运行时,如何让 Camera2 api 列出面向外部的摄像头?
我正在尝试使用 Camera2 api 预览连接到 Android 手机的外部 ZED 立体摄像头。
https://www.stereolabs.com/zed/
这台相机符合 UVC 标准,当我将它连接到在虚拟盒上运行的 android oreo 8.0 vm 时,我已经能够预览它。
我正在使用谷歌示例项目https://github.com/googlesamples/android-Camera2Basic中的代码。CameraManager 类提供了一个 getCameraIdList() ,它应该返回连接到设备的所有摄像头的 ID,例如正面、背面或外部(在这种情况下,它应该是我的 ZED cam 或任何其他外部网络摄像头) 相机。
当我在虚拟盒子上运行示例时,外部摄像头似乎被检测为后置摄像头。
外部 ZED 摄像头始终显示为后置摄像头。当我尝试在将 ZED cam 连接到 USB C 接口的 Android 手机上运行 apk 时,它根本没有检测到网络摄像头。
事实上,当摄像头连接时,我在手机上运行了USB Device Info应用程序,它显示为视频设备
然后我运行了应用程序Camera2 Api Probe,它使用手机上的 camera2 api 探测摄像头及其所有支持的特性,它只列出了我手机中的前置和后置摄像头。它没有列出外部摄像头。
我用三星 A7 (2017)、一加和荣耀都运行了 Andoird Oreo 8.0 进行了尝试。然后没有人可以列出外置摄像头,但所有这些都显示 USB 设备已连接,并且视频设备名称为 ZED。
我不知道他们为什么不出现。如何使用 camera2 api 获取外部摄像头列表?
我最初尝试使用 JNI 绑定到使用 libuvc 的本机代码的项目,例如这个。但是帧速率似乎太慢了。但现在我专注于使用 camera2 api 获取预览。
仅供参考:我怀疑相机可能没有收到足够的电量。因此,我使用Tracend USB 3.0 集线器连接了相机,该集线器带有可以为连接的 USB 设备供电的外部电源。结果是一样的。
需要明确的是,在使用 vbox 模拟器时,外部设备被列为后置摄像头。使用 Genymotion 时,我必须使用它的相机小部件将连接的 ZED cam 设置为后置或前置摄像头,然后它会列出。
c - 编写自定义 USB 描述符
我正在开发具有 USB 3.0 连接性的 cypress CX3 芯片。我需要枚举 USB 以同时用作 UVC 类(视频类)和串行端口。
我已经看过与此相关的 USB 文档,但这些文档并没有清楚地解释如何编写一个。
CX3 SDK 提供帮助以生成 UVC 类的 USB 描述符,但没有提供有关如何将 COM 端口功能添加到其中的信息。
所以我的问题是你如何编写相同的描述符。
提前致谢。
android - 带有外部 USB 摄像头的 Camera2 API
我正在项目中构建 Android 设备和网页之间的 WebRTC 通信,所以我使用这个 github WebRTC_Android存储库来实现 android 端,并且在 android 设备相机上都可以正常工作,但现在我想使用外部相机。
分析代码后,我发现它使用 Camera2 API来读取摄像头流,我在这里发现这个 API 支持外部摄像头,但对我来说,API 甚至没有检测到摄像头。
我在问 API 是否适用于所有类型的外部相机?API 支持什么类型的相机?我可以使用带有 WebRTC的UVC 相机库而不是 Camera2 API 吗?
谢谢
c# - 如何将命令写入(发送)到 USB 端口?(UVC,网络摄像头)
我是 C# 新手
我正在尝试向 USB 端口发送命令(usbport=========fx3(Cypress 芯片),在 LED 上点亮而不是在定制板上))
我尝试扫描端口但失败了,因为我的计算机(win10)将 USB 识别为相机(fx3 是图像处理芯片)
所以我在 sysnet.pe.kr 中找到了这段代码
有用!!!所以我找到了端口
但我不知道如何向端口发送命令!!!
请帮帮我ㅠㅠ