问题标签 [deep-fake]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - PyTorch head2head 模型中的 CUDA_OUT_OF_MEMORY
我正在执行这里的 Github 存储库中提供的 head2head 模型。当我使用以下命令运行代码时:
train_on_target.sh文件的内容为:
然后我收到以下错误:
我已经检查了文件options/base_options.py中的批处理大小。它已经设置为 1。如何解决上述异常。我的系统有6 GB NVIDIA GTX 1660 Super GPU。
python - 一阶运动模型
每当我运行此命令时:
我收到此错误:
请帮忙!
deep-fake - Deepface/faceswap 替换面部表情而不是替换面部?
Deepface/faceswap(在 github 上)帮助我们从两个视频中替换人 A 和人 B 之间的面对面。输出是人 B 的脸在人 A 的脸上。
但它是否有助于我们仅替换面部表情(嘴巴动作、眼睛动作、鼻子动作.vv)而不是替换整个面部图像?输出是人 B 在人 A 脸上的面部表情,而不是替代 Thier 人脸识别。
P/s:他们有任何 AI 库来帮助我们在两个视频之间替换两个人的面部表情吗?
swap - 他们在 Reface 应用中使用了什么样的机器学习方式或模型?
我想实现一种实时换脸方式,但我还没有找到任何承诺的实时换脸方式。Faceswap需要训练几天,看起来非常准确。但我不知道 Reface 应用程序是如何在一分钟内做到这一点的。谁能建议我这样的工具或回购,我可以完成这项任务?
python - Jupyter notebook 关于其要求的错误
运行推理单元时出现以下错误消息。但我是初学者,所以我不知道。我应该怎么办?
然后,我针对必要的库 facexlib、basicsr、GFPGAN 和 SimSwap 尝试了 git reset 命令或更多命令。尽管情况并没有改变,只是在推理单元上打印了以下消息。
谢谢你。
ffmpeg - DeepfakesLab ffmpeg 错误:线程消息队列阻塞;考虑提高 thread_queue_size 选项(当前值:8)
当我尝试合并到 mp4 时会出现问题。合并到 mp4 后,有一个灰屏 vid(result vid) 提示显示一条消息:
线程消息队列阻塞;考虑提高 thread_queue_size 选项(当前值:8)
如何提高队列大小?我不知道如何控制 DFL 程序设置。
python - Wave2Lip 的使用和性能
实际问题:
目前 opencv 用于将视频帧写入单个文件。您可以直接附加音频还是有其他方法可以创建小的视频片段,这些片段可以通过 rtp 协议广播或直接从 python 代码广播?
我不想编写视频文件,然后使用 ffmpeg 将其与音频结合起来。
背景:
我正在尝试编写一个需要实时 LypSincing 的应用程序。为此,我正在试验Wave2Lip。起初,这个库似乎很慢,但实际上通过一些优化可以很快。
实验:
我首先使用以下命令手动将一个视频与另一个视频文件进行 lypsinced。
face.mp4文件时长25秒,30fps,分辨率854*480 audio.mp4文件时长260秒,30fps,分辨率480x360
总生成时间正好是109秒。在剖析代码并对其进行分析后,我发现有两个部分花费的时间最长:
- 人脸检测部分耗时 48.64 秒
- lypsincing 部分耗时 48.50 秒
然后我用静态图像而不是视频进行了尝试,这大大缩短了时间(在我的用例中,我稍后将只使用同一张脸,因此我将适当地在启动时预先计算人脸检测)。
- 人脸检测部分耗时 1.01 秒
- lypsincing 部分耗时 48.50 秒
在查看了 lypsincing 部分后,我发现生成了整个 lypsincing 视频,然后与视频相结合
然后我决定用以下结果分析每个 lypsincing 周期:
结论:在解决了面部检测(或者更像是暂停)后,在第一批视频帧准备好之前,lypsincing 大约需要 5 秒。每个 lypsinced 视频批次长 4.26 秒,计算它大约需要 0.8 秒。这意味着如果要将此视频批次与音频帧一起流式传输,则应该有可能在 5 秒延迟后开始渲染,而不是在此用例中的 50 秒。