问题标签 [nvenc]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
nvenc - 如何确定是否支持 NVENC
是否有 Cuda 调用甚至 Windows 7 调用可以帮助我确定特定机器是否支持 NVENC?
谢谢。
nvidia - NVIDA 视频编解码器示例项目中的运行时错误
我从 Video_Codec_SDK_8.0.14 测试了 nv 编解码器 SDK 项目“NvDecodeD3D11”。当我编译它时,错误发生在 cuvidCtxLockCreate(&g_CtxLock, g_oContext);
它表示访问冲突执行位置 0x0000000000000000 意味着 g_CtxLock 为 NULL。我该如何解决?
您可以从这里下载源代码:https ://developer.nvidia.com/designworks/video_codec_sdk/downloads/v8.0
我使用VS 2013在x64平台编译配置。
opencv - 如何从 GPU 设备获取 YUV 组件?
以下程序显示了来自 Video_Codec_SDK_8.0.14 的 NVIDIA 的 NVTranscoder 项目的转码器流程。
解码器以 NV12 格式输出每一帧。但是,对于我的编码部分,我收到的帧只获得了 Y 分量通道,我怎样才能获得所有 YUV 分量通道?
此外,我怎样才能在一些处理后写回 CUdeviceptr ?
nvidia - NVENC:每次 IDR 刷新的 IDR 片数
我正在检查使用Nvidia 视频编码器(NVENC) 生成的 h264 比特流,并注意到每个 IDR 更新不包含单个 IDR nal,而是其中的 4 个。
我不明白为什么每次更新需要 4 个 IDR nals。我正在尝试找到一种方法将这个数字减少到每次更新一个 IDR 切片。在 NVENC 配置中,我idrPeriod
用来告诉编码器更新频率,但我找不到控制每次更新的 IDR nals 数量的方法。
c++ - 使用随机访问解码 H264
我想访问 H264 文件中的随机帧并将解码的图像映射到 Direct3D 纹理。我正在使用NVIDIA VIDEO CODEC SDK。我已经找到了8.0 版中包含的NvDecodeD3D11示例,并将其剥离为熊的基本要素。
基本上我想实现与中提出的相同想法:从文件中间解码 H264。
我的文件只能是 IDR 帧,但也可以包含 P 帧。
轻松访问示例:Github
我理解链接问题中的想法,但我不知道在哪里以及如何实现这一点。
encoding - 从采集卡无损编码 4K 60Hz
Windows 10 64 位锐龙 7 GTX 1080 32GB 内存
大家好,
我正在尝试从 4K 采集卡以无损格式对 4K 30/60Hz 视频进行编码,我尝试过的所有操作都给了我与链接图像中类似的错误,[实时缓冲区太满或接近太满丢帧]
[不是我的] https://cloud.githubusercontent.com/assets/4932401/22171307/ef5c9864-df58-11e6-8821-4b74ce3f32d0.png
这是我最近尝试过的命令:
ffmpeg.exe -f dshow -video_size 3840x2160 -framerate 30 -pixel_format bgr24 -rtbufsize INT_MAX -i video="MZ0380 PCI, Analog 01 Capture" -vf fps=30 out%d.BMP
将图像转储到 10G RAM 磁盘或 850 EVO。我这样做是为了跳过编码步骤。
使用 h265 无损编码和 NVENC h265 无损编码时出现相同的错误。
我需要视频是无损的,因为它将用于测试硬件 h265 编码器。
视频源是 4K 蓝光。
任何帮助将不胜感激。谢谢你。
-亚历克斯P
google-cloud-platform - 谷歌云 GPU NVENC + Windows 2016
在 AWS 上成功测试了一些 GPU+NVENC x.264 编码后,我现在正在使用 Google Cloud Compute(运行 Windows Svr 2016 的特斯拉 P100 GPU)进行测试
看起来 NVENC 不起作用,有人用 Windows 实现了这一点吗?或有任何指示?
encoding - FFmpeg:从 CUDA 缓冲区而不是 RAM 缓冲区编码
我需要将从相机捕获的原始视频流编码为 h264。我在 Windows 7 下使用 NVIDIA Pascal GPU,并尝试使用 FFmpeg 来控制 h264_nvenc,而不是直接使用 NVIDIA SDK。
使用 libavcodec,我有一个使用 avcodec_encode_video2() 成功编码输入流的程序。此函数从 RAM 中的缓冲区获取输入图像,并将其 DMA 到 GPU 进行编码。
我现在想对已经在 GPU 上的图像(在 CUDA 缓冲区中)进行编码。查看 FFmpeg 的文档和各种示例,我没有找到任何有关如何执行此操作的指示。
有谁知道这是否可行,如果可以,该怎么做?
ffmpeg - 使用 VideoCodec (NVENC) 解码时读取自定义 SEI 消息
我有一系列视频,其中包含在 sei 消息 NAL 中编码的自定义信息。使用 Nvidia 硬件解码器解码时是否可以读取该信息。如果不支持,我应该改用 NVENC 支持编译的 FFMPEG 吗?
更新:我想解码媒体并阅读 SEI 消息。我正在流式传输实时视频并在 sei 消息中包含后处理信息。客户端必须使用该信息将效果应用于解码的媒体。尽快解码媒体很重要,我想在硬件中完成。我假设 Nvidia 解码器必须解析 NAL 单元来解码它们。如果可能,我想避免重复工作。
windows - 使用 cerbero 在 Windows 中从源代码构建 gstreamer .... 构建 gst-libav-1.0 的问题
我是第一次从源代码编译 gstreamer,我在 Windows 中构建 gst-libav-1.0 时遇到了困难。
我按照 gstreamer 网站中给出的链接进行操作。只避免创建 .cerbero.cbc (因为它会带来更多问题,但默认情况下会在网站上运行) 从源代码编译 gstreamer——gstreamer 网站
问题
1)运行构建命令后,我收到错误
" /w32pthreads.h:137:1: error: unknown type name 'INIT_ONCE'" 有关详细错误,请参阅 error.txt 文件 C:\Users\Admin\AppData\Local\Programs\Python\Python36\Python.exe ./ cerbero 卸载 buildone gst-libav-1.0
2)当我设置启用 nvenc , cuda ...等它的显示:
配置:警告:无法识别的选项:--enable-hwaccels --enable-devices --enable-nvenc --enable-omx --enable-omx-rpi --enable-cuda --enable-cuvid --enable-libnpp - -启用-ffmpeg
我在下面提到的位置的文件“gst-libav-1.0.recipe”中添加了上述选项
如何在 libav 的构建中启用此选项?
注意:我添加了构建时生成的日志
a) gst-libav-1.0-compile.log gst-libav-1.0-compile.log
b) error.txt 错误 日志