问题标签 [deepface]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
26 浏览

python - 如何在 django 视图中使用多线程优化人脸检测?

这是我的代码,我想优化性能如何在 python 中执行并行线程?任何想法?我正在使用这个模型:
“DEEPFACE_MODELS”:“VGG-Face;DeepFace”,“DEEPFACE_BACKENDS”:“opencv;ssd;dlib”任何关于优化性能的建议都会很棒

0 投票
0 回答
24 浏览

python - tensorflow.python.framework.errors_impl.ResourceExhaustedError: failed to allocate memory [Op:AddV2] while yolov4 and deepface

我正在尝试使用 YoloV4 和 opencv cuda 构建来检测人是否戴口罩,并使用 deepface 来识别没有戴口罩的人,但我的 VRAM 用完了。有什么解决方法吗?

我遇到了这个错误,并且 yolov4 和 deepface 都可以分别正常工作。

0 投票
0 回答
22 浏览

python - Wave2Lip 的使用和性能

实际问题

目前 opencv 用于将视频帧写入单个文件。您可以直接附加音频还是有其他方法可以创建小的视频片段,这些片段可以通过 rtp 协议广播或直接从 python 代码广播?

我不想编写视频文件,然后使用 ffmpeg 将其与音频结合起来。

背景

我正在尝试编写一个需要实时 LypSincing 的应用程序。为此,我正在试验Wave2Lip。起初,这个库似乎很慢,但实际上通过一些优化可以很快。

实验

我首先使用以下命令手动将一个视频与另一个视频文件进行 lypsinced。

face.mp4文件时长25秒,30fps,分辨率854*480 audio.mp4文件时长260秒,30fps,分辨率480x360

总生成时间正好是109秒。在剖析代码并对其进行分析后,我发现有两个部分花费的时间最长:

  • 人脸检测部分耗时 48.64 秒
  • lypsincing 部分耗时 48.50 秒

然后我用静态图像而不是视频进行了尝试,这大大缩短了时间(在我的用例中,我稍后将只使用同一张脸,因此我将适当地在启动时预先计算人脸检测)。

  • 人脸检测部分耗时 1.01 秒
  • lypsincing 部分耗时 48.50 秒

在查看了 lypsincing 部分后,我发现生成了整个 lypsincing 视频,然后与视频相结合

然后我决定用以下结果分析每个 lypsincing 周期:

结论:在解决了面部检测(或者更像是暂停)后,在第一批视频帧准备好之前,lypsincing 大约需要 5 秒。每个 lypsinced 视频批次长 4.26 秒,计算它大约需要 0.8 秒。这意味着如果要将此视频批次与音频帧一起流式传输,则应该有可能在 5 秒延迟后开始渲染,而不是在此用例中的 50 秒。