问题标签 [phlivephoto]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 如何从 URL 将 Live Photo 保存到图库?
我目前正在从 url 保存实时图像。但是互联网上没有太多文件,我坚持这一点。我已经检查过这段代码,它真的很有帮助,但不幸的是它只会将你录制的视频转换为 Live Photo。所以我正在尝试的是,从一个 mov 格式的视频的 URL 制作和保存实时照片。
希望有人有解决方案。谢谢..
objective-c - iOS - 无法将 .MOV 和 .jpg 保存为 LivePhoto - 显示错误 NSCocoaErrorDomain Code=-1 [目标 C]
我想用 jpg 和 MOV 的混合物以编程方式创建实时照片。下面是我的实现代码
这些是文件 jpg 文件的链接 - http://18.220.72.107/hd_wallpapers/images/animation/43625_wallpaper-2.jpg
MOV 文件 - http://18.220.72.107/hd_wallpapers/images/animation/43625_wallpaper-2.MOV
我的 MOV 和 JPG 来自服务器。相同的代码适用于放置在本地文件中的项目。
每当代码执行时,它都会抛出Error Domain=NSCocoaErrorDomain Code=-1
swift - 通过 UIActivityViewController 导出 LivePhoto - Swift
我能够成功创建具有 jpeg 和 mov 文件的 LivePhoto,并将其显示在屏幕上。
现在我无法将 LivePhoto 保存到库中。使用以下代码,我收到错误消息:“资源不可用”。
先感谢您!
ios - 如何在播放实时照片时禁用触觉反馈
在我的应用中,我允许用户从他们的照片库中播放 Live Photos。
为此,我使用以下内容:
通过使用这种方法,每当播放我不想要的实况照片时,我都会得到触觉反馈。这是 的正常行为PHLivePhotoView
吗,有没有办法禁用它?
swift - 在多个线程上处理实时照片
我正在使用 .frameProcessor 处理 PHLivePhoto 来修改每一帧。这些帧似乎是按顺序处理的,这很慢。我可以让 PHLivePhotoEditingContext.frameProcessor 利用多个核心吗?
ios - UIImagePickerController 在 iOS 13 中不返回实时照片
我的代码在 iOS 13 中停止工作。在我的 UIImagePickerController 委托中,我查看返回的媒体类型(用户选择的事物类型)是否是实时照片。如果是,我使用.livePhoto
密钥获取 PHLivePhoto。这曾经奏效。但在 iOS 13 中,此键的值始终为nil
. 如何获取用户选择的实时照片?
ios - 如何更改 Live Photo 元数据以转换为 Loop 或 Bounce?
我对 Apple 的 Live Photos 进行了大量研究,但他们似乎没有提供任何关于将 Live Photo 更改为循环或反弹的信息。
我的目标是将实时照片的格式更改为循环或弹跳,就像 Apple 在照片应用程序中所做的那样。
我知道用户可以在照片应用程序中转换实时照片,然后我可以使用图像选择器检索它,然后显示为循环视频。不知何故,Apple 重写了 Live Photo,要么通过更改 Live Photo 的元数据以便视频播放器知道如何播放它,要么完全用他们自己的“秘诀”重写视频。
背景:-媒体资产已被选中,现在在我的应用程序中进行处理。- 当前选择的媒体类型是普通的 Live Photo - 用户在编辑过程中的某个时间决定他们想要将 Live Photo 的格式更改为反弹。
问题:有没有一种方法可以重写这些资产的元数据以将它们更改为实时照片、循环或弹跳,无论当前类型如何,还是我必须以某种方式重写视频?
这是我在检查从选择器返回的媒体资产的资源时得到的输出。每个资产都有相同的配对资源,无论是 Live Photo、bounce 还是 Loop。这些是我正在检查的媒体的描述。
第一个输出是当我选择一张普通的 Live Photo
这是我选择“反弹”实时照片时得到的输出。我添加了额外的打印语句以获取有关每个配对资源的更多信息
ios - 无需 Apple 设备即可将视频转换为 IOS Live Photo 格式
我目前正在为 Android 手机制作动态/动画壁纸,这对于 GIF/Mp4 文件来说非常容易。但我也想让动态壁纸与 ios/iPhone 原生兼容。我看过很多关于如何将视频转换为实时照片的教程,但它们都涉及您需要在 iPhone 上安装的某种应用程序。问题是,我没有 iPhone 或任何 iOS 设备来做到这一点,显然 iOS 模拟器不是一件事,所以我的问题是:
是否可以通过第 3 方将 (mp4) 视频转换为 iOs Live 照片?如果是这样,你会怎么做?我对iOS环境非常缺乏经验,所以谢谢你的帮助!
ios - 如何在 SwiftUI 中显示 PHLivePhotoView
我正在开发一个用于实时照片的基本应用程序,并尝试在 SwiftUI 上构建用户界面。但是,我不明白如何正确显示实时照片。是否可以将 PHLivePhotoView 合并到 SwiftUI 中?
ios - SwiftUI:如何调整 UIViewRepresentable 输出的大小?
我尝试在 SwiftUI 上构建一个基本的 Live Photo 应用程序并努力显示所选照片。为此,我尝试为 PHLivePhotoView 制作 UIViewRepresentable:
在我的主视图中,我这样称呼它:
直到我尝试限制视图大小时,它都可以正常工作。我想将预览放入一个带有类似内容的方框中
但 scaledToFit() 似乎不起作用,我所拥有的只是一张裁剪的图像。预期的行为是两个具有保留纵横比的图像和较短边的空白空间。这甚至可能吗?