问题标签 [apple-live-photos]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - 可以在 Windows 机器、C# 或其他操作系统上查看和编辑 Apple iOS 实时照片吗?
有什么方法可以在基于 Windows 的平台上以编程方式查看、管理和编辑Apple iOS Live Photos ?
任何有关文件结构以及如何访问它的详细信息将不胜感激。(它只是一个 MOV 还是一组静止图像?)
(Microsoft 的在线 live.com 和 Apple 的 iOS Live Photos 无处不在,让我无法搜索到我需要的信息。)
ios - 来自 NSData 的实时照片
我将实时照片存储在服务器上,有两个单独的文件,一个 JPG 和一个 MOV 文件。当我检索它们时,我留下了 NSData,这是我的问题出现的地方,我不知道如何PHLivePhoto
从这些数据中创建一个。
如果文件捆绑在我的项目中,这是我创建 PHLivePhoto 的方法:
这给了我一个 PHLivePhoto。我应该采取什么方法向用户显示照片?
ios - 从 UIImages 以编程方式创建 PHLivePhoto
如何在 Objective-C 中以编程方式创建 PHLivePhoto(例如从多个 UIImage 或其他方式)?我在 Apple 的文档中找不到任何解决方案。我知道这必须以某种方式实现,因为 App Store 上有多个应用程序提供动画实况照片以用作 iPhone 6S 上的锁定屏幕。
任何帮助将不胜感激!谢谢
bash - Apple Live Photos 元数据
当我从 Mac 上的照片应用程序导出实时照片时,它会创建两个单独的文件:一个 jpg 和一个 mov。jpg 带有所有的 exif 数据,而 mov 文件似乎总是延迟五个小时。
更具体地说,我使用了 exiftool -option 文件名。这些是 jpg 的结果(yyyy-mm-dd 对所有人都是一样的,所以我只包括时间输出)。
这些是 mov 的结果。
它应该显示的时间是 jpg 的 DateTimeOriginal。由于可能与时区相关的故障,看起来 mov 的 MediaCreateDate 关闭了五个小时。
无论如何,我问这个问题的原因是我想从使用 Apple 照片转换为 Dropbox 中的普通文件夹树。问题是有一个好的命名方案来保持排序。我用谷歌搜索了一下,使用 Hazel(加上下面的脚本)工作得很好,如果它不是用于实时照片的 mov 文件的话。用一个体面的命名方案对我所有的照片(和现场照片)进行排序。
如何调整下面的脚本以获得 mov 文件的正确名称?
或者,或者,
如何使用 Hazel 告诉每个 mov 文件具有相同名称的 jpg 的 DateTimeOriginal?
通过这最后一件事,我的意思是有一个脚本,如果提供一个 mov 文件,它会查找同名的 jpg 并使用它的 DateTimeOriginal。
顺便说一句,这里的第二个答案(Apple Live Photo file format)似乎解释了照片如何跟踪 mov 文件的元数据,但我不知道如何使用它。
我实际上找到了两个脚本。第一个在这里(https://www.macstories.net/reviews/better-dropbox-camera-uploads-with-camerasync/)。
第二个(https://www.noodlesoft.com/forums/viewtopic.php?f=4&t=2218)是
我之前在 apple.stackexchange 上问过这个问题,但没有引起注意。https://apple.stackexchange.com/questions/236377/live-photos-metadata
objective-c - 从 Live Photo 中获取所有图像
我想从 Live Photo 中获取NSArray
所有UIImage
内容来创建一个 GIF。我尝试在为实时照片制作动画时制作屏幕截图,但它不起作用。谁能帮我?谢谢!
ios - AVAssetExportSession,AVMutableVideoComposition 让视频更红
我从 livephoto 获取视频,并多次导出这样的视频。
它变得比源实况照片更红。这是一个错误?
这是导出代码,最后有一个演示项目。
那么视频比源livephoto更红。
- 运行项目
- 它会在 1 秒后显示图像选择器。
- 选择实时照片
- 并点击选择
- 然后将新视频保存到您的相册。变红了!
ios - 如何更改实时照片的持续时间?
我最近在阅读isLivePhotoAutoTrimmingEnabled
https://developer.apple.com/reference/avfoundation/avcapturephotooutput/1648778-islivephotoautotrimmingenabled的文档
默认情况下,实时照片捕获的持续时间约为三秒(以捕获请求的时间为中心)。
我想知道是否有办法让它 5 或 10 而不是只有 3 秒。我怎么能那样做?有什么想法吗 ?
ios - 如何制作流畅的动态壁纸?
我打算以编程方式为 iphone(iOS 9 及更高版本)创建动态壁纸。
我使用LoveLiver 项目创建了一些动态壁纸。
我还尝试了 App Store 上的免费应用 Live Edit 来创建一些。
我什至自己创作了一些(通过使用 iphone 6s 拍摄现场照片,然后将它们设置为壁纸)。
但是,它们都没有这个演示动态壁纸那么流畅。
尤其是刚按下屏幕的那一刻:对于demo来说,从静态到动态的过渡非常流畅。然而,对于我上面提到的所有其他动态壁纸,它一开始是模糊的,然后变成动态的,因此不是很流畅。
您知道造成这种差异的原因是什么吗?
谢谢你。
ios - 在 Swift 3 中使用 UIActivityViewController 在 WhatsApp 上共享实时照片不起作用
我UIActivityViewController
在不同的社交媒体上分享图像、视频和 LivePhoto。
但是当我在WhatsApp上分享LivePhoto时,会发生以下情况:
- 当 ActivityViewController 存在时 -> 单击 WhatsApp -> 它显示第二个联系人列表并快速关闭,当我尝试使用
ActivityViewController
Completion 处理程序打印错误时,它会打印如下内容:
[核心] SLComposeViewController remoteViewController: didTerminateWithError: Error Domain=_UIViewServiceInterfaceErrorDomain Code=3 "(null)" UserInfo={Message=Service Connection Interrupted} [核心] SLComposeViewController completeWithResult: 0 [核心] SLComposeViewController 跳过显式关闭,因为 isBeingDismissed 已经是 1 SLComposeViewController dealloc
谁能帮帮我。
谢谢你。
macos - “实时照片”macOS 10.13 的 MLMediaLibrary 视频 URL
我在macOS 10.13上使用MLMediaLibrary从Apple Photos 应用程序(本地照片库)访问媒体。我可以从NLMediaObject获取所有必要的文件 URL(已编辑、原始、缩略图)。我什至可以通过访问MLMediaObject的 attributes 属性来获取未经编辑的“实时照片”的视频 URL :
我唯一的问题是,如果在Photos app中编辑了“Live Photo” ,则MLMediaObject的属性中不再存在 videoComplURL 键。如果它未经编辑,我可以获得 videoComplURL。当我从照片应用程序中编辑的“实时照片”恢复到原始状态时,我再次看到 videoComplURL。我现在的问题是:如何使用MLMediaLibrary在macOS 10.13上获取已编辑的“实时照片”的视频 URL ?我可以使用任何其他库来从Apples Photo 应用程序中获取包含媒体内容的专辑和收藏集吗?
谢谢