问题标签 [surveillance]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - 用于视频监控的 blobtracking 中的 cv_exports
我正在做一个视频监控项目,必须从视频中跟踪车辆,并且还必须识别它是哪辆车。我正在使用opencv。我在其中使用 blob 跟踪。有没有其他方法可以使用 opencv 检测车辆。我是opencv的新手。我正在浏览 blob 跟踪头文件,在那里我发现了一条语句,例如:
这是什么意思。以及做什么CV_EXPORTS
用的。它是用许多类编写的。它的意义是什么。还告诉我如何处理我的项目。它对我来说真的很重要。
video-streaming - 通过网络从 IP 摄像机录制视频源
我正在为我的办公室建立一个摄像头安全系统,但我们不想将 DVR 保留在现场。
我们看了 NVR(网络录像机),它们太贵了。我想到了一个替代方案。我不知道它的可行性有多大,但肯定会喜欢这里的一些输入。
这是我的想法:
- 购买普通 IP 摄像机
- 购买服务器或 AWS 实例并编写程序以将流媒体源连续下载到服务器。
现在我对这个解决方案的实用性以及构建这样一个系统所涉及的技术有一些疑问:
- 大多数 IP 摄像机以什么格式传输数据?它们以什么帧速率传输?
- 如果我要编写一个可以读取此提要并下载并将其存储在服务器上的程序,我将获得与实时提要相同的质量吗?
- 在存储数据之前,我是否需要再次将数据实时编码为其他格式(如 flv.)?
- 你能为此建议一个最好的架构吗?我在想一个亚马逊实例和 s3 来存储视频源。
有些网站已经这样做了(比如http://www.mangocam.com/)
谢谢,我希望这个问题符合 SO 准则,因为这可能是编程和非编程相关的灰色区域。如果没有,我会将其移至其他一些 stackexchange 站点(请提供建议)
.net - .Net windows 应用的视频场景检测
我正在尝试对视频文件进行场景检测。
我想将视频文件作为输入,我想检测场景变化并告诉我场景变化发生在什么位置。
我很高兴使用 3rd 方库来做到这一点,但我不知道从哪里开始。
python - 网络摄像头帧中的噪音 Python + Opencv
我正在使用 Opencv 2.4.5 和 python 2.7 来跟踪视频监控中的人。一开始我使用 .avi 和 .mpeg 视频来测试我的代码,现在我想使用 hcv-m100c 相机。我使用帧之间的简单差异(与每个帧相比的初始帧)来识别运动中的对象,它适用于我拥有的 .avi 和 .mpeg 视频,但是当我使用相机时,结果非常糟糕因为我的视频中出现了很多噪音和污点。我认为问题出在我的相机上,但我用同一个相机制作了一个 .avi 视频,我用我的代码测试了那个视频,它工作正常。现在,我正在使用 cv2.BackgroundSubtractorMOG 但问题仍然存在。所以,我认为我在使用相机时需要进行预处理
android - Android app monitor reed switch USB connected
I want to develop an Android app for home security surveillance that will monitor a door. I want to connect a switch reed to the USB port of an android smartphone.
It's possible to monitor this hardware switch connected to the smartphone USB port? The app will send a SMS when the contact is open.
opencv - 基于BackgroundSubtractorMOG的车辆计数
我正在开发一个名为 ATCS(自动交通控制器系统)的项目,它将根据交通灯前的车辆数量来修改交通灯持续时间。
我使用openCV和backgroundsubtractorMOG来检测车辆,当车辆移动时它运行成功,但是当红色信号打开时,所有车辆都是不可数的。当然这会使我的软件无法工作。
到目前为止,我知道 backgroundsubtractorMOG 是最好的解决方案,因为该系统可以在天气、光强度等多种变化中工作。它将比较当前帧和前一帧,以便将移动对象检测为前景 (CMIIW)。那么移动并停止的车辆怎么样 - 因为交通灯的红色信号灯亮并且它迫使驾驶员停止他们的车辆?它还会被检测为前景物体吗?
所以我想问最合适的算法来做。如何在移动时计算车辆数量,以及当车辆停止移动时,因为红色信号 - 它仍然检测为车辆。
谢谢你 :)
real-time - 指数加权移动平均线 - 没有平均值或标准偏差?
嗨,我已经收集了 3 年的一些过程数据,我想模拟 EWMA 前瞻性分析,看看我设置的平滑参数是否会检测到所有重要的变化(没有太多的误报)。
我看过的大多数教科书和文献似乎都使用平均值和标准差来计算控制限。这通常是一些历史数据的“受控”均值和标准偏差,或者是从中抽取样本的总体的均值和标准差。我没有任何信息。
是否有另一种方法来计算控制限?
EWMA 图表是否存在不使用均值和标准差的变体?
有什么创意吗?
先感谢您
azure - 用于将素材上传到 Azure 的摄像机
我们有 Ubiquiti 的 UVC 摄像机,我想将监控录像上传到 Azure 云,我不想每天备份录像,我需要以某种方式将录像直接上传到 Azure。我可以这样做吗?
matlab - 如何使用 MHI 和 MEI 进行动作识别
我目前正在开展一个项目,通过 Matlab 识别人类行为/活动以进行老年人监控。
我正在阅读不同的论文以了解如何识别这些动作,并且我通过运动历史图像和运动能量图像进行模板匹配。我已经看到了 MHI 和 MEI 的结果,但是在得到这些结果之后,您如何实际使用它们来识别监控视频上的图像?感谢您提前帮助!
android - 使用智能手机的摄像头进行视频监控
我有两部不再使用的智能手机,我想将它们的摄像头用于基本的视频监控系统,而不是购买昂贵的摄像头。
我的想法是整夜录制,然后将视频保存在我的笔记本电脑上。
这对我来说也是一个学习更多关于 Android 编程的好机会。
所以我想方法是:
- 一个 TCP/IP 服务器,收集来自两个(或 N 个)电话的信息;
- 一个 TCP/IP 客户端,在每部手机上运行,记录信息并将其发送到服务器;
不过,我不确定该“信息”应该是什么。那应该是相机捕获的单帧,还是有办法流式传输视频?
如果我想实现基本的运动检测,在客户端还是在服务器上做会更好吗?
我上面的方法正确吗?