问题标签 [video-compression]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
keras - DeepQTMT论文模型实现
DeepQTMT:一种基于快速 QTMT 的帧内 VVC CU 分区的深度学习方法。论文链接:https ://arxiv.org/pdf/2006.13125.pdf
将实施多阶段出口 CNN(MSE-CNN)。在模型的每一层中,将决定将 CTU 拆分为它的 CU。
在将 64 * 64 CTU 划分为四个 32 * 32 Cu 的第一级决策中,将使用提取的特征进行测试。如果决定不拆分,则提前终止,否则我们将拆分的 CU 传递到下一层。
在第二层中,32 * 32 CU 将被拆分为 16 * 16。如果决策未拆分,则提前终止,否则我们将拆分的 CU 传递到下一层。
这样,如果达到的最小尺寸为 8 * 8,我们就会重复并停止。
该模型的图像是: 在此处输入图像描述
请有人可以帮助我在 tensorflow 中实现本文的模型。
react-native - 使用ffmpeg进行本机反应的视频压缩
我尝试使用react-native-ffmpeg以 react-native-ffmpeg 压缩视频。
我正在使用react-native-image-picker挑选视频。
我尝试使用命令-y -i ${inputVideo} -vcodec h264 -acodec mp3 ${finalVideo}
。
但它失败了rc:1
。我的代码:-
谢谢!
react-native - 在 React Native 中压缩图像/视频
当我们在 React Native 中上传大图像或视频时,我们发现这需要很多时间。我正在寻找一些可以在发送到我们的服务器 api 之前压缩内容的模块/库。
我们的代码库是 ReactNative。
我们目前正在使用 Dropzone 组件。
ffmpeg - FFMPEG:如何将一分钟长的 MP4 转换为 4MB 以下且质量不错的 WebM (VP8)?
我在 4chan 上看到有人在 /wsg/ 或 /gif/ 上发布 2-3 分钟长的文件,质量不错,有声音。我尝试使用以下命令对我的 MP4 文件执行相同的操作,该文件长达一分钟:
ffmpeg -i input.mp4 -threads 4 -c:v libvpx -c:a libvorbis -b:v 400k -b:a 128k -质量好 -qmin 0 -qmax 55 output.webm
源视频为 12MB,生成的视频约为 4.7MB。但是视频质量不是很好。我尝试更改一些值,这些值会给我一个小于 4MB 的视频,但图像质量很差。我如何找到尺寸和质量之间的最佳平衡点?请帮忙。
android - 在 Android Xamarin Forms 中压缩视频时出现视频转码器问题
虽然在上传问题时压缩视频转码器中的视频看起来像 com.otaliastudios.transcoder.source.FilePathDataSource.ensureDescriptorSource Java.Lang.RuntimeException:(没有这样的文件或目录)但问题仍然没有重新创建我的手机。如何解决这个问题
facebook - facebook在哪里压缩其视频和图像,客户端或服务器端
我们知道 Facebook 在上传视频和图片时会对其进行压缩。我的问题是这发生在哪里?如果我从我的移动设备上传视频,Facebook 是在本机 android 设备上使用 Media Codec 或 FFmPeg 库压缩视频(就像 WhatsApp 所做的那样),还是它首先在服务器上上传视频,然后在服务器上压缩视频?
react-native - 在 React Native 聊天应用程序中发送之前压缩视频的最快方法是什么
所以我的问题主要在标题中,我正在开发一个聊天应用程序,我必须在发送到数据库(firebase 存储)之前压缩视频。到目前为止,我能找到的只是 ffmpeg,但问题是压缩视频需要花费大量时间,对于 10 秒的视频,它需要一分钟,我很惊讶它在 whatsapp 中的速度有多快..还有其他方法可以更快地压缩视频吗?还是更改 ffmpeg 命令会产生可接受的差异?当前使用的命令是“-y -i ${rVideoUrl} -c:v libx264 -crf 28 -preset ultrafast ${finalVideo}”
ios - Apple 设备播放具有 HE-AAC 音频编码的 mp4 容器的问题
与我见过的其他人相比,我不是如何使用编解码器的专家,但我足够好,能够体面地压缩视频。
我将 HandBrake 用于视频,但由于 HandBrake 在 AAC 压缩方面不是很好(至少从我尝试过的情况来看),我使用 Premiere Pro 代替,因为它支持 HE-AAC 和参数立体声。每当我压缩视频时,我首先使用 HE-AAC v2 参数立体声在 Premiere Pro 中编码音频,打开 Avidemux 以将 .aac 文件的输出放入原始文件,然后打开 HandBrake 并将音频设置设置为 Auto Passthru。
然而,我已经意识到,到目前为止,在我见过的任何 Apple 设备上,音频都比它应该的要差得多。我不确定是因为它是一个 MP4 容器,还是因为 Avidemux,因为我一直在使用 H.264(下次我压缩一些东西我将使用 H.265),或者因为它根本不起作用无论如何,在 Apple 设备上。有任何想法吗?
此外,具有相同音频问题的已压缩视频示例:https ://cdn.discordapp.com/attachments/775102275546644511/873636072402325524/The_heavy_is_dead.mp4
cocoa - VTCompressionSessionRef 动态更新像素宽度和高度
我正在开发一个使用压缩技术实时传输压缩AVCaptureSession
输出的应用程序。Video ToolBox
压缩会话的宽度和高度将根据最终用户分辨率设置动态更改。现在,我正在重新配置编码器以适应新的尺寸。但是重新配置需要一秒钟左右的时间,并且在此期间捕获的帧被跳过,因为我不希望在传输帧时出现任何时间延迟。
据我所知,唯一设置编码器宽度和高度的地方是创建一个OSStatus VTCompressionSessionCreate(CFAllocatorRef allocator, int32_t width, int32_t height, CMVideoCodecType codecType, CFDictionaryRef encoderSpecification, CFDictionaryRef sourceImageBufferAttributes, CFAllocatorRef compressedDataAllocator, VTCompressionOutputCallback outputCallback, void *outputCallbackRefCon, VTCompressionSessionRef _Nullable *compressionSessionOut);
有没有办法在VTCompressionSessionRef
不重新创建的情况下更新它的大小?