问题标签 [avasset]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - AVAssetWriter 可以以透明方式写入文件吗?
如果我包含的图像没有填满整个渲染区域,我使用 AVAssetWriter 编写的每个文件都有黑色背景。有什么办法可以写透明吗?这是我用来获取像素缓冲区的方法:
和 AVAssetWriter 代码:
avfoundation - 如何多次编辑 AVMutableComposition
我再次在这里寻求 AVFoundation 的帮助。对不起我的英语不完美。
我现在正在编写视频编辑器。首先,我从库中加载视频并将其放入 AVAsset 实例。然后,每次当用户选择某个视频区域并在那里设置速度参数时,我都会这样做:
第一次它工作正常,但第二次我有“insertTimeRange”错误和零持续时间。请让我知道您是否有任何想法这里出了什么问题或有任何建议如何以不同/更正确的方式进行操作。
ios - io
我正在使用自定义 CaptureSessionManager 录制一些视频,并根据设备方向旋转预览层(否则,预览层在横向左/右上是颠倒的)。到目前为止,这有效。但...
当我尝试播放视频时,我使用以下代码来确定视频的方向:
AVAssetTrack *videoTrack = [[asset tracksWithMediaT
我正在使用自定义 CaptureSessionManager 录制一些视频,并根据设备方向旋转预览层(否则,预览层在横向左/右上是颠倒的)。到目前为止,这有效。但...
当我尝试播放视频时,我使用以下代码来确定视频的方向:
但结果总是一样的,不管是左还是右。
我使用此代码来获取输出:
这导致:
左右方向记录。
有任何想法吗?
这取决于您的测试理念。我个人建议不要从功能测试中调用外部服务,并建议使用下面的模拟方法或其他模拟/存根方法。调用外部服务可能会很慢,受网络不稳定的影响(顺便说一下,您可以模拟超时等),对于具有调用配额的服务会出现问题(可能在这种情况下不适用)等等。因此,对于您的功能测试,您可以模拟该服务,以便它返回预设信息。通过这种方式,您可以检查您是否传递了服务敏感信息,并且正在使用您返回的结果做正确的事情。您还可以轻松测试任何错误情况。例如,使用 Mocha,您可以在功能测试中执行以下操作:
AdwordsApi::Api.new
现在,当您的测试调用将返回罐装数据(当然,将其更改为包含适当的数据)时,您将获得一个模拟的 api 对象auth_response
,因此您现在可以调用将使用模拟的控制器回调,然后您可以检查您的回调方法是否符合您的预期。您可以从 mock 中返回错误数据或不完整的数据api
,或者让它在现实生活中引发异常。expects
还会检查您是否将期望的参数传递给外部服务。
我并不是说这是唯一或最好的方法,或者即使上面的代码在我刚刚输入时可以保证工作,但它应该说明方法!
如果您真的想针对真实服务进行测试,这是一个很好的冒烟测试/健全性检查,您可以使用 vcr gem https://github.com/vcr/vcr来记录/重播 http 响应(我已经从未使用过,但看起来不错),或者您可以添加一个仅在特别请求时运行的测试,或者在构建服务器上自动运行。例如,我从 platformatec 的博客文章中引用以下内容,这表明在 rspec 中您可以执行以下操作:
然后,在您的 spec_helper.rb 中,只需设置:
现在,默认情况下,运行规范会跳过所有将 :external 设置为 true 的组。每当您调整客户端或构建时,您都可以使用以下命令运行这些特定测试:
有关此 rspec 方法的完整文章,请参阅http://blog.plataformatec.com.br/2012/10/filtering-examples-in-rspec/ 。
我正在使用自定义 CaptureSessionManager 录制一些视频,并根据设备方向旋转预览层(否则,预览层在横向左/右上是颠倒的)。到目前为止,这有效。但...
当我尝试播放视频时,我使用以下代码来确定视频的方向:
AVAssetTrack *videoTrack = [[asset tracksWithMediaT
我正在使用自定义 CaptureSessionManager 录制一些视频,并根据设备方向旋转预览层(否则,预览层在横向左/右上是颠倒的)。到目前为止,这有效。但...
当我尝试播放视频时,我使用以下代码来确定视频的方向:
但结果总是一样的,不管是左还是右。
我使用此代码来获取输出:
这导致:
左右方向记录。
有任何想法吗?
这取决于您的测试理念。我个人建议不要从功能测试中调用外部服务,并建议使用下面的模拟方法或其他模拟/存根方法。调用外部服务可能会很慢,受网络不稳定的影响(顺便说一下,您可以模拟超时等),对于具有调用配额的服务会出现问题(可能在这种情况下不适用)等等。因此,对于您的功能测试,您可以模拟该服务,以便它返回预设信息。通过这种方式,您可以检查您是否传递了服务敏感信息,并且正在使用您返回的结果做正确的事情。您还可以轻松测试任何错误情况。例如,使用 Mocha,您可以在功能测试中执行以下操作:
AdwordsApi::Api.new
现在,当您的测试调用将返回罐装数据(当然,将其更改为包含适当的数据)时,您将获得一个模拟的 api 对象auth_response
,因此您现在可以调用将使用模拟的控制器回调,然后您可以检查您的回调方法是否符合您的预期。您可以从 mock 中返回错误数据或不完整的数据api
,或者让它在现实生活中引发异常。expects
还会检查您是否将期望的参数传递给外部服务。
我并不是说这是唯一或最好的方法,或者即使上面的代码在我刚刚输入时可以保证工作,但它应该说明方法!
如果您真的想针对真实服务进行测试,这是一个很好的冒烟测试/健全性检查,您可以使用 vcr gem https://github.com/vcr/vcr来记录/重播 http 响应(我已经从未使用过,但看起来不错),或者您可以添加一个仅在特别请求时运行的测试,或者在构建服务器上自动运行。例如,我从 platformatec 的博客文章中引用以下内容,这表明在 rspec 中您可以执行以下操作:
然后,在您的 spec_helper.rb 中,只需设置:
现在,默认情况下,运行规范会跳过所有将 :external 设置为 true 的组。每当您调整客户端或构建时,您都可以使用以下命令运行这些特定测试:
有关此 rspec 方法的完整文章,请参阅http://blog.plataformatec.com.br/2012/10/filtering-examples-in-rspec/ 。
ios - iOS - AVAsset 的内存问题
我的应用程序就像 Vine 或 Instagram,它们记录小片段并将它们连接在一起。创建avasset时内存管理有问题。如果我从一开始就创建了 100 个 AVAsset 对象,它工作正常。但是,如果我继续删除其中的一些,甚至全部删除,然后再次创建新的,我会收到内存警告并响应内存压力。我用 Instrument 检查了我正在运行的应用程序,没有内存泄漏。下面是我如何在数组资产中创建和删除 AVAsset 对象。有谁知道可能是什么问题?
ios - 为 AVQueuePlayer/AVPlayer 从网络预加载视频文件
我有一组或 URL,每个都指向一个 mp4 视频文件。
对于这些视频文件(如 Instagram 视频),我有一个类似新闻源的时间线。用户可以上下滚动浏览每个视频。为了使视频加载更快,我想在用户向下滚动到它们之前预加载接下来的几个视频文件。当用户实际滚动到这些文件时,它将开始播放而无需再次从网络下载。
文件将在 AVQueuePlayer 中播放。
有没有办法做到这一点?多谢你们!
iphone - AVAssetExportSession 在 iPad 上工作,在 iPhone 上没有音频
我在我的应用程序的 iPad 和 iPhone 版本上运行完全相同的代码,并且代码在 iPad 上运行良好(视频与音频一起正确导出),但 iPhone 上导出的视频没有任何声音。我什至在 iPad 上运行了 iPhone 版本,它运行良好,这意味着代码本身应该没有问题。
任何关于为什么 iPhone 不导出带音频的视频的见解将不胜感激。
我做了一些研究,有人提到内存问题可能会导致一些出口问题。在视频处理/导出过程中,内存和 CPU 使用率相当高,但从未高到足以收到内存警告。
提前致谢。
ios - AVAsset 持续时间不正确
我在 Mac 播放器中有视频,视频持续时间为 31 秒。当我在我的应用程序中使用它并加载该文件时,AVAsset 的持续时间为“28.03”。
ios - GPUImage initWithAsset 只显示最后一帧
我正在尝试使用 初始化 GPUImageMovie AVAsset
,这是一个AVMutableComposition
. 但是,它只会在运行所有基准帧后才显示最后一帧。如果我使用 initWithURL 它可以正常工作,但我不想生成文件。
我还尝试AVAsset
从具有相同结果的文件 URL 创建一个。
任何想法为什么这不起作用?
ios - AVAssetExportSession 在输出视频的右侧和底部给我一个绿色边框
这是代码:
我尝试了不同的质量设置。无论我要渲染什么视频,我总是会在视频的右侧和底部得到一个 1-2 像素的边框。可能是什么原因造成的,我该如何解决?
编辑:我没有在任何地方使用任何绿色,所以这一定是来自框架。
ios - 了解 AVAsset 中的轨道
我正在尝试根据声音文件渲染音频波形。我找到了很多教程来展示如何做到这一点,但我没有找到太多的文档涵盖AVAsset
. 我查看了苹果文档,但我发现它有点含糊。
我真的很想了解基础知识而不是跳来跳去。我很难理解到底什么是轨道。如果我的资产是视频,我会有一个代表视频的轨道和另一个代表音频的轨道吗?
在上面的代码中,是objectAtIndex:0
表示“格式描述数组”吗?
我用什么AVAsset
来实现?样本集合?