问题标签 [coremediaio]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
macos - 使用 `AVCaptureSession` 生成和捕获隐藏式字幕数据
我注意到,当AVCaptureSession
从通过 USB 连接的 iPhone 捕获媒体到 Mac 时,还有一个隐藏式字幕输入 ( AVMediaTypeClosedCaption = 'clcp'
):
问题是我不知道如何捕获隐藏式字幕数据甚至生成它。
为了捕获我的第一个猜测是添加一个,AVCaptureMetadataOutput
但在macOS
. AVCaptureMovieFileOutput
似乎消耗了它理解的任何输入,但我在结果文件中看不到任何隐藏式字幕数据。也许是因为我不知道如何在 iPhone 上制作它。
对于制作,我尝试打开 Voice Over 并播放带有字幕的媒体,但没有明显的结果。
macos - 如何在没有 CoreMediaIO 的 MacOS 上创建虚拟相机(因为不推荐使用 CoreMediaIO)
我们可以使用CoreMediaIO
.
我们有几个使用 CoreMediaIO 的示例虚拟相机。
- https://github.com/johnboiles/coremediaio-dal-minimal-example
- https://github.com/seanchas116/SimpleDALPlugin
- https://github.com/lvsti/CoreMediaIO-DAL-Example
但是 CoreMediaIO 已被弃用,所以我们如何在没有 CoreMediaIO 的情况下创建虚拟相机?
swift - Capture specific window in CoreMediaIO based virtual camera in Swift
I am trying to understand one of sample Virtual Camera based on CoreMediaIO given at https://github.com/seanchas116/SimpleDALPlugin
Currenty this camera display animated moving sqaure. relevant code for this is
create
and modifyWithContext
are defined here
How can I update this code to output window capturing of any specific window like chrome or terminal etc?
swift - 如何在 MacOS 上使用 IPC 将字符串从应用程序发送到 DAL 插件?
我有一个用Swift编写的CoreMediaIO
基础文档,它目前正在轮询一个网站以获取该字符串。这不是一个好方法。DAL plugin
我想通过操作系统支持的IPC(Inter Process Communication)将该字符串发送到 DAL 插件。
但是有很多方法可以MacOS
像这样进行 IPC
Apple Events
Distributed Notifications in Cocoa
BSD Notifications
Transferring Raw Data With CFMessagePort
Communicating With BSD Sockets
Communicating With BSD Pipes
Distributed Objects
Pasteboard
XPC
就我而言,我只想one way communication
从 aapplication
到DAL Plugin
。
我是 MacOS 开发的新手,所以不确定哪种方法最适合我从 Application 到 DAL Plugin 的单向通信情况?
macos - CoreMediaIO DAL 插件的生命周期是什么?
CoreMediaIO设备抽象层 (DAL) 类似于 CoreAudio 的硬件抽象层 (HAL) 。正如 HAL 处理来自音频硬件的音频流一样,DAL 处理来自视频设备的视频(和多路混合)流。
DAL Pludins 位于/Library/CoreMediaIO/Plug-Ins/DAL/
life cycle
这些是什么DAL Plugins
?
- 他们什么时候开始
started
跑步? - 他们什么时候得到
stopped
? - 他们什么时候得到
paused
? - 我在哪里可以看到他们的
logs
? - 当他们是时会发生什么
not in use
? - 我怎样才能看到他们
performance
是否有效?
如果有人不知道,CoreMediaIO DAL 插件的著名示例之一就是OBS 虚拟相机。
注意:这个问题不应该标记得太宽泛。我不是在问多个问题。了解CoreMediaIO DAL Plugin的生命周期只是一个问题。