问题标签 [avassetwriter]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios4 - 从 UIImages 数组创建视频并将视频保存到 iPhone 库。AVAssetLibrary +AVFoundation
将视频保存到 iPhone 库时出现问题。我有一组 UIImages 和两个按钮“convertToVideo”&“saveToiPhoneLib”
保存到 iPhone 库
但是在保存时我收到错误消息:-
完成保存视频时出现错误:Error Domain=ALAssetsLibraryErrorDomain Code=-3302 "Invalid data" UserInfo=0x1d59f0 {NSLocalizedFailureReason=写入此资产时出现问题,因为数据无效,无法查看或播放。, NSLocalizedRecoverySuggestion=尝试使用不同的数据, NSLocalizedDescription=无效数据}
请让我知道我的错误。提前致谢
iphone - OpenGL 到 iPhone 上的视频
我目前正在做一个项目,将物理模拟转换为 iPhone 上的视频。
为此,我目前正在使用两个不同的循环。第一个循环在 AVAssetWriterInput 对象轮询 EAGLView 以获取更多图像的块中运行。EAGLView 提供来自存储它们的数组中的图像。
另一个循环是实际模拟。我已经关闭了模拟计时器,并且每次都以预先指定的时间差自己调用滴答声。每次调用滴答声时,我都会在交换缓冲区后在 EAGLView 的交换缓冲区方法中创建一个新图像。然后将此图像放置在 AVAssetWriter 轮询的数组中。
还有一些杂项代码来确保数组不会变得太大
所有这些工作正常,但非常非常慢。
从概念上讲,我正在做的事情是否会导致整个过程比可能的要慢?另外,有没有人知道比 glReadPixels 更快地从 Open GL 中获取图像的方法?
iphone - 来自 OpenGL 的 CMSampleBuffer,用于使用 AVAssestWritter 进行视频输出
我需要为 OpenGL 帧获取一个 CMSampleBuffer。我正在使用这个:
我得到 CMSampleBufferCreate 的 EXEC_BAD_ACCESS。
任何帮助表示赞赏,谢谢。
iphone - iOS:如何使用 AVAssetWriter 制作包含一系列图像的电影
我在这里和其他论坛上看到过多次以不同形式提出的这个问题。有些问题得到了回答,有些则没有。有一些回答者或作者声称取得了成功。我已经实施了那些声称成功的例子,但还没有看到相同的结果。
当从 AVCaptureSession 获取样本缓冲区时,我能够成功地使用 AVAssetWriter(和 AVAssetWriterInputPixelBufferAdaptor)同时写入图像数据和音频数据。但是,如果我有以其他方式生成的 CGImageRef,并“从头开始”构建 CVPixelBufferRef,则 AVAssetWriterInputPixelBufferAdaptor 的 appendPixelBuffer:withPresentationTime 方法会在几帧上成功,然后在所有后续帧上都会失败。生成的电影文件当然是无效的。
您可以在以下位置查看我的示例代码: http: //pastebin.com/FCJZJmmi
这些图像是有效的,并通过在调试窗口中显示它们来验证(参见第 50-53 行)。该应用程序已经过 Instruments 测试,在应用程序运行过程中内存利用率较低。它不会收到任何内存警告。
据我所知,我已遵循可用的文档。为什么示例代码会失败?需要做什么来修复它?
如果有人成功让 AVAssetWriterInputPixelBufferAdaptor 使用他们自己的图像,请加入。
iphone - iOS:如何使用 AVAssetWriter 修复半尺寸帧保存电影
我正在用 AVAssetWriter 和 AVAssetWriterInputPixelBufferAdaptor 编写电影文件。
用于构建 CVPixelBuffer 的 CGImage 看起来很正常(如屏幕上显示的那样),输出影片显示压缩到帧的上半部分的输入图像。所有宽度、高度和 bytes_per_row 都是相同的(对于 CGImage、AVAssetWriter 设置和 CVPixelBuffer 设置)。
什么可能导致这种问题?
iphone - AVAssetWriter 多个会话和状态属性
我正在尝试使用 AVAssetWriter 创建多个串行写入会话。一旦我成功完成了一个(在调用finishWriting 之后),状态就会设置为2(AVAssetWriterStatusCompleted)。
尝试创建另一个会话,我调用 startWriting,但出现错误:
除非我配置一些东西,否则我似乎无法创建写作会话。我是否必须再次重新创建 AVAssetWriter?我一定遗漏了一些东西,而文档没有帮助。
谢谢。
iphone - AVAssetWriter startWriting 问题
当我在 2G 设备上写电影时,AVAssetWriter startWriting 返回 BOOL False 值,但对于所有其他设备,它返回 TRUE 值并且工作正常。任何人都遇到过这个问题,或者你知道它为什么会发生,请帮帮我
iphone - AVAssetWritter 不适用于音频
我正在尝试让音频与 iOS 应用程序的视频一起使用。视频很好。没有音频记录到文件中(我的 iPhone 扬声器工作。)
这是初始化设置:
这是录音的开始和结束:
这是音频的代表:
视频方法无关紧要,因为它有效。“restateConfigiration”只是整理会话配置,否则火炬熄灭等:
感谢您的任何帮助。
iphone - 如何同时将 AVAssetReader 和 AVAssetWriter 用于多个轨道(音频和视频)?
我知道如何使用AVAssetReader
and AVAssetWriter
,并且已经成功地使用它们从一部电影中抓取视频轨道并将其转码为另一部电影。但是,我也想用音频来做这件事。我是否必须AVAssetExportSession
在完成初始转码后创建,或者在写作过程中是否有某种方法可以在轨道之间切换?我讨厌不得不处理AVAssetExportSession
.
我问是因为,使用拉式方法 - while ([assetWriterInput isReadyForMoreMediaData]) {...}
- 只假设一个轨道。它怎么能用于多个轨道,即音频和视频轨道?
iphone - 使用 iPhone 作为 mediastreamsegmenter 的输入 - HTTP Live Streaming
我开始研究 HTTP live Streaming 协议,感觉很有趣。浏览了 Apple 提供的完整文档。
我按照开发者论坛之一中提到的步骤尝试了 Vedio On Demand 和 Live Streaming 以及使用 VLC 播放器作为流媒体服务器,并且我能够成功地对其进行流式传输。
现在我希望我的 iPhone 成为流媒体的来源,并希望使用另一部 iPhone 来查看该内容。
如前所述,mediastreamsegmenter 是一种通过 UDP 网络连接或从 sdtin 接收 MPEG-2 传输流的工具。
有人可以说明如何开始使用我的 iPhone 作为流媒体服务器并能够流式传输内容。据我所知,我认为必须有一个客户端(iPhone)应用程序将内容发送到服务器,服务器又将流转换为 MPEG-2 传输流并将其发送到 mediastreamsegmenter。我希望剩下的部分与我为 VLC 播放器流式传输所做的相同。
如果有人可以帮助我了解如何开始,那就太好了。