问题标签 [picamera]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 有没有办法设置 CameraX imageAnalysis 或 preview 以从外部树莓派相机获取视频源。?
我正在使用 CameraX 版本 1.0.0-alpha05。使用这个版本的原因是因为我正在关注一个pytorch对象检测android示例代码。
我知道 ssh <username>@<hostname>.local -Y "mplayer tv://device=/dev/video0"
但当当的存在,我也不知道如何捕获要输入 ImageAnalysis 或 Preview Object 的视频源。
非常感谢任何帮助或线索!
python - 如何并行运行python HTTP流服务器(PiCamera)+运动检测?
使用树莓派和 python 流服务器的代码(在此处描述:http: //picamera.readthedocs.io/en/latest/recipes2.html#web-streaming),我构建了一个嵌套框来观察鸟类。由于我不想每天检查服务器,直到鸟儿搬进来,我想使用运动检测(我计划使用此处描述的代码的修改:https ://www.pyimagesearch.com/2015/06 /01/home-surveillance-and-motion-detection-with-the-raspberry-pi-python-and-opencv/) 一旦鸟儿安顿下来就会收到通知。但是,我不明白在什么时候以及如何将此代码包含到流服务器中,以便它像流服务器一样在后台运行。如果我在 server.serve_forever() 之前包含运动检测代码的循环,流媒体服务器将不会运行,如果我在之后添加它,运动检测循环将永远不会启动:
我怎样才能同时运行两者?我想这可能适用于线程,......不知何故?
谢谢!
raspberry-pi - 有没有一种快速的方法可以在 Raspberry Pi 4B 和 HQ 相机模块上使用 raspistill 记录图像?
我想用 Raspberry Pi HQ 相机模块记录多张图像(例如 50 张)。这些图像是用简单的命令行记录的raspistill -ss 125 -ISO 400 -fli auto -o test.png -e png
。由于我必须记录 .png 文件,因此图像尺寸为 3040x4056。如果我运行一个包含 50 个命令行的简单 bash 脚本,那么图像之间的“处理时间”似乎很长。
那么有没有办法在没有任何延迟(或至少很短的延迟)的情况下一个接一个地记录这些图像中的 50 个?
python - 有没有办法在 python 中实现“raspistill -fli auto”?
在上一篇文章中,我要求使用不同的方式来使用 command raspistill -ss 125 -ISO 800 -fli auto -o test.png -e png
,因为它太慢了。解决方案是切换到 python 而不是使用命令窗口。它工作得很好,因为它使它快了大约 3 倍。虽然它可以设置快门速度和 ISO,但我找不到实现-fli auto
上述代码部分的方法。根据 raspberry pi 网站的说法,“闪烁避免将曝光时间锁定为电源闪烁频率的倍数(60Hz 为 8.33ms,50Hz 为 10ms)。”
在阅读 python picamera 文档时,似乎没有简单的方法可以-fli auto
在 python 中实现设置。该网站说“exposure_speed [...] 是一个只读属性。”
那么我该如何实现呢?
谢谢
python - 用于 Raspberry 0W 监控摄像头的 python 写入 NAS
我制作了一个 raspi0 PIR cam 并试图让它写入我的网络存储设备。.py 写入驱动器,但除非我 ctrl C 并手动重新启动,否则只会重新保存同一个文件。
python - 如何从 RPi Camera 保存 RGB 数据,然后将文件保存为 matlab/Python 可读格式?
由于我的应用程序的时间限制,我正在连续拍摄多个白光图像,稍后我想将其拆分为 RGB 图像。我目前将原始 RGB 图像另存为,.data
但无法弄清楚如何将文件读回数组以允许我在单独的脚本中对其进行操作。有没有更好的方法可以非常快速地保存这些 RGB 数据,以便我以后可以访问它?或者甚至更好地将其拆分为 RG 和 B 然后单独保存这些图像?
相机捕捉:
self.camera.capture('file_location.data', 'rgb')
读回 Python(单独的脚本):
我能够读取二进制文件,但还没有找到如何转换 contents
为我可以操作的数组。
python - 实例化后对象仍然没有?
我正在使用树莓派和相机将提要流式传输到网络浏览器。我的 Camera 类尝试两次实例化我的 CameraThread 类(如果 None 则尝试)并停止(因为 picamera 试图被两个不同的对象使用),但理论上这不应该发生。
我试图在 Camera 类的 if 语句中更新一个临时变量,只是为了查看,但该变量没有更新……我不确定这里的问题是什么。
这是我正在使用的代码:
python - 我如何使用 python 3 从 tkinter 窗口观看我的树莓派 picamera?
我的覆盆子上有一个工作 picamera,我会使用 python 3 在 tkinter 的窗口中看到它。感谢遵循我的代码:
.net-core - MMALSharp 单摄像头双预览带叠加
我正在尝试在 Raspberry Pi 上的 .netcore 5 中使用 MMALSharp。使用 Pi 相机,我想将视频流分成两个显示相同内容的图像,然后为每个流添加一个图像叠加层。叠加层将是相同的。这将与双目耳机一起使用。到目前为止,我的相机管道布局如下:
这会正确地将来自相机的预览视频馈送分成两个显示它的窗口。我对如何为每个渲染器添加叠加层感到困惑。我正在使用具有透明背景的未压缩 RGBA 格式 png 图像。图像很好,因为我在 python 中使用它的 add_overlay() 方法将它与 PiCamera 类一起使用,它按预期工作。
到目前为止,这是我的代码,可用于显示两个预览窗口:
我已经尝试按照 MMALSharp wiki 中关于叠加层的示例进行操作。使用以下代码不起作用并导致分段错误。任何帮助,将不胜感激。
python - picamera:捕捉黑色图像
我正在尝试使用我的 RaspiCam v2 捕获图像。我有一个非常具体的设置,并指定了获得良好图像质量所需的所有相机参数。我使用单独的 python 脚本用以下行捕获图像来计算它们:
camera.capture('filename.jpg')
.
在我的实际程序中,我想不直接将图像捕获到文件中,而是作为BytesIO()
流捕获。即使我保持所有参数相同,我也只得到黑色图像。
这是我的代码:
捕获到文件或捕获到流时,相机参数之间是否存在差异?