问题标签 [deep-fake]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
24 浏览

python - 从点拉伸图像

我有一张脸的图像,它的面部地标位置: 在此处输入图像描述 以及另一个带有其他位置的地标的图像: 在此处输入图像描述 我需要通过将地标“拖动”到第二张图像中的新位置来拉伸第一张图像,在 Python (我正在尝试创建一个非常基本的 deepfake)。
我该如何实施?(我有地标的确切位置)
我在谷歌搜索了很多但没有找到任何结果,所以我希望这里有人可以帮助我。

0 投票
1 回答
43 浏览

python - PyTorch head2head 模型中的 CUDA_OUT_OF_MEMORY

我正在执行这里的 Github 存储库中提供的 head2head 模型。当我使用以下命令运行代码时:

train_on_target.sh文件的内容为:

然后我收到以下错误:

我已经检查了文件options/base_options.py中的批处理大小。它已经设置为 1。如何解决上述异常。我的系统有6 GB NVIDIA GTX 1660 Super GPU。

0 投票
0 回答
142 浏览

python - 一阶运动模型

每当我运行此命令时:

我收到此错误:

请帮忙!

0 投票
0 回答
53 浏览

deep-fake - Deepface/faceswap 替换面部表情而不是替换面部?

Deepface/faceswap(在 github 上)帮助我们从两个视频中替换人 A 和人 B 之间的面对面。输出是人 B 的脸在人 A 的脸上。

但它是否有助于我们仅替换面部表情(嘴巴动作、眼睛动作、鼻子动作.vv)而不是替换整个面部图像?输出是人 B 在人 A 脸上的面部表情,而不是替代 Thier 人脸识别。

P/s:他们有任何 AI 库来帮助我们在两个视频之间替换两个人的面部表情吗?

0 投票
0 回答
64 浏览

swap - 他们在 Reface 应用中使用了什么样的机器学习方式或模型?

我想实现一种实时换脸方式,但我还没有找到任何承诺的实时换脸方式。Faceswap需要训练几天,看起来非常准确但我不知道 Reface 应用程序是如何在一分钟内做到这一点的。谁能建议我这样的工具或回购,我可以完成这项任务?

0 投票
0 回答
45 浏览

python - 错误:当我使用 faceswap 从 Mp4 中提取图像时无法构建程序 kernel_c1_sdk_1

兄弟,最近,我只想使用 deepfakes.faceswap 包从 mp4 视频中提取图像,但是当我使用时: python3 faceswap.py extract -i ~/documents/mus.mp4 -o ~/documents/mu/

有事吗

我很确定我有这个视频,并且我已经完成了:pip3 install -r requirements_amd.txt,

我猜是因为我没有获得 AMd 5300m cvms 服务

我的电脑是 16 英寸的 MacBook Pro。和 我的电脑

有事吗

日志:

请帮帮我,我该怎么办?

0 投票
0 回答
72 浏览

python - Jupyter notebook 关于其要求的错误

对象在这里。

运行推理单元时出现以下错误消息。但我是初学者,所以我不知道。我应该怎么办?


然后,我针对必要的库 facexlib、basicsr、GFPGAN 和 SimSwap 尝试了 git reset 命令或更多命令。尽管情况并没有改变,只是在推理单元上打印了以下消息。


谢谢你。

0 投票
0 回答
108 浏览

ffmpeg - DeepfakesLab ffmpeg 错误:线程消息队列阻塞;考虑提高 thread_queue_size 选项(当前值:8)

当我尝试合并到 mp4 时会出现问题。合并到 mp4 后,有一个灰屏 vid(result vid) 提示显示一条消息:

线程消息队列阻塞;考虑提高 thread_queue_size 选项(当前值:8)

如何提高队列大小?我不知道如何控制 DFL 程序设置。

0 投票
0 回答
22 浏览

python - Wave2Lip 的使用和性能

实际问题

目前 opencv 用于将视频帧写入单个文件。您可以直接附加音频还是有其他方法可以创建小的视频片段,这些片段可以通过 rtp 协议广播或直接从 python 代码广播?

我不想编写视频文件,然后使用 ffmpeg 将其与音频结合起来。

背景

我正在尝试编写一个需要实时 LypSincing 的应用程序。为此,我正在试验Wave2Lip。起初,这个库似乎很慢,但实际上通过一些优化可以很快。

实验

我首先使用以下命令手动将一个视频与另一个视频文件进行 lypsinced。

face.mp4文件时长25秒,30fps,分辨率854*480 audio.mp4文件时长260秒,30fps,分辨率480x360

总生成时间正好是109秒。在剖析代码并对其进行分析后,我发现有两个部分花费的时间最长:

  • 人脸检测部分耗时 48.64 秒
  • lypsincing 部分耗时 48.50 秒

然后我用静态图像而不是视频进行了尝试,这大大缩短了时间(在我的用例中,我稍后将只使用同一张脸,因此我将适当地在启动时预先计算人脸检测)。

  • 人脸检测部分耗时 1.01 秒
  • lypsincing 部分耗时 48.50 秒

在查看了 lypsincing 部分后,我发现生成了整个 lypsincing 视频,然后与视频相结合

然后我决定用以下结果分析每个 lypsincing 周期:

结论:在解决了面部检测(或者更像是暂停)后,在第一批视频帧准备好之前,lypsincing 大约需要 5 秒。每个 lypsinced 视频批次长 4.26 秒,计算它大约需要 0.8 秒。这意味着如果要将此视频批次与音频帧一起流式传输,则应该有可能在 5 秒延迟后开始渲染,而不是在此用例中的 50 秒。