问题标签 [avassetimagegenerator]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 从使用 AVAssetImageGenerator 获得的视频或拇指获取方向
在我的应用程序中,我从单个图像创建视频。一切正常,视频以正确的大小和方向正确组装。它们在 Apple 照片应用程序、MPMoviePlayer 和我保存它们的沙盒目录中都正确显示。
当我试图从电影中获得大拇指时,问题就出现了。方向不正确,我不知道如何解决,我看到有一个 -preferredTransform
属性,但横向和纵向视频的结果是相同的。
我使用的 url 是沙盒目录路径。这是片段:
ios - 从 AVPlayer ios 生成缩略图
我正在尝试从特定时间码的视频中生成缩略图。我正在使用 AVPlayer,这是我写的方法:
}
为了获得帧精确的图像,我使用了 setsetRequestedTimeToleranceBefore:kCMTimeZero 和 setRequestedTimeToleranceAfter:kCMTimeZero,但从那时起,大多数时候我都会收到此错误:
错误域=AVFoundationErrorDomain 代码=-11800 “操作无法完成”
虽然,有时它工作得很好。当我打印时,收到此错误时,“actualTime”我看到它是“inf”或“nan”或只是一个非常大的数字。
以前有人遇到过这个吗?
谢谢, 约拿单
ios - is AVAssetImageGenerator completion handler called in main thread?
I am trying to get an array of images from video. It is working well but I have a doubt that In which thread the completion handler get called.
I called this method(
generateCGImagesAsynchronouslyForTimes:
) in new operation and I updated the UI in the completion handler. The UI get updated.But typically the UI updation doesn't happen in secondary thread?. My doubt is the completion handler called in current calling thread or main thread?
My Code is:
objective-c - OSX 上的 CGImage 到 NSBitmapImageRep
我很确定这个话题已经在这里讨论过好几次了,但是我有一个非常奇怪的问题,与在 OSX(10.8 和 10.9)上将 CGImage 转换为 NSBitmapImageRep 相关。
CGImage 对象来自 AVAssetImageGenerator copyCGImageAtTime:actualTime:error: 方法。我目前找到了两种方法来获得我想要的东西:
这可以正常工作,但速度有点慢。当我只想处理数据时,我看不到锁定图形上下文的意义......
我还尝试了以下方法:
希望这也有效,但结果图像的蓝色通道丢失。
那么,如何在不需要图形锁定且在此过程中不丢失信息的情况下实现这种转换呢?
ios - 为使用 AVAssetImageGenerator ios 生成的缩略图设置图像大小
我正在使用AVAssetImageGenerator
生成缩略图的类,但问题是我需要将该缩略图调整为UITableViewCell
具有UIImageView
大小(320,239)。我AVAssetImageGenerator
将最大尺寸属性指定为 (320,239) 但我没有得到我指定的所需尺寸请任何帮助提前谢谢。请查看以下代码以供快速参考。
我从“stackoverflow”获得的另一种解决方案,但在我的场景中没有多大帮助。`
ios - 使用 AVAssetImageGenerator 在指定处获取缩略图
AVAssetImageGenerator
我通过指定CMTimeMakeWithSeconds
为 (0.0, 600)来拍摄缩略图。它工作正常,但我不明白CMTime
. 我阅读了文档,但仍然不清楚。假设我想在 5 秒或恰好/最接近 5 秒后拍摄缩略图。请说明如何设置。这两者有什么区别:
提前致谢
objective-c - 无法从视频中提取每一帧
我有一个 30fps 的 7 秒 MOV 视频,但是当我尝试为多个值循环代码时它不起作用。即使我能够写出所有帧,它也总是给我 7-8 个独特的帧。请求的时间总是不同的,但我总是得到实际的时间框架。
我还尝试了 Apple 开发者网站的另一种方式,但两者都从 7 秒视频中给出 7 帧。
ios - iOS 将 AVAssetImageGenerator 中的实际时间帧修剪为秒
我试图扫描电影的每 10 帧,如下例所示:
问题是我的日志显示如下:
如您所见,请求的时间是我想要的,但实际时间总是修剪到秒。如何获得秒的一小部分的实际帧?或者我得到正确的帧但实际时间无效?
ios - 如何使用 iOS sdk 从视频中获取所选帧的开始和结束时间?
我正在尝试做的事情:
我正在尝试获取以下附件中选择的帧的开始和结束时间:
到目前为止我做了什么:
- UIImagePickerController : 实现后发现,如果从相册中选择视频输入,则委托“didFinishPickingMediaWithInfo”不会返回开始和结束时间。也得到了苹果团队的确认。
- 尝试使用“ UIVideoEditorController ”,最终无法获得开始和结束时间。
- 计划尝试使用“ AVAssetImageGenerator ”生成缩略图并以编程方式处理“棒或标记”以选择帧以及AVPlayer以在 IOS 电影播放器中进行即时预览。(如附件中所示)。但它非常不安和复杂,不确定它的处理速度。
我想知道的:
- 除了以上三种技术,还有没有其他方法可以拥有视频修剪器功能?Apple SDK的任何直接api?
- 任何人都可以提供基于“AVAssetImageGenerator”的视频修剪器的参考链接或示例代码吗?
objective-c - 如何设置 AVAssetImageGenerator 的大小?
我尝试从视频中读取一些帧。视频是 640 x 480 但我得到的图像只有 480 x 360。有没有办法获得原始尺寸的图像?