问题标签 [ant-media-server]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 使用自定义摄像头设置 Antmedia 视频流
我是视频流相关项目的新手!我用蚂蚁媒体创建一个流媒体服务器。它与opengl GLSurfaceView
. 但我想用自定义cameraview替换这个GLSurfaceView。但我不知道该怎么做。我在 github 上看到了一个开源项目:https ://github.com/natario1/CameraView
我想将此相机视图用作流源。
我完成了以下代码:
这里 mGLView 是 GLSurfaceView 我想用这个自定义相机视图替换它。谁能建议我从哪里开始?
live - Ant Media Server 是否支持 HLS 或 DASH 中的实时 360 视频流?
我需要知道HLS 或 DASH 是否支持实时360 度视频。这个功能对我来说真的很重要。
ant-media-server - Hash based Publish/Play in Ant Media Cluster
When Cluster mode is enabled, how can i modify the config file inside /antmedia/webapps/LiveApp/WEB-INF/red5-web.properties ? Whenever I modify it and restart the antmedia.service, the file returns to it's previous state. The hash token does not get saved.
Enterprise Edition 2.1.0 20200720
Thanks.
webrtc - 是否有可能使用 OBS 获得与使用基于 Web 的发布相同的延迟
我正在使用 Ant Media Server 企业版,并且在使用 WebRTC 从浏览器发布时,我实现了非常低的延迟(低于 500 毫秒)。
一旦我切换到 OBS 作为发布软件,它就会回到大约 10 秒的延迟。
从 OBS(或其他软件)流式传输时,有什么方法可以实现低延迟,或者只有从浏览器发布时才有可能?
ant-media-server - 验证 Antmedia REST API
如何验证我对 antmedia 服务器的 rest api 调用?我收到错误:HTTP 状态 403 – 禁止类型状态 ReportMessage 不允许 IP
python - 从 python open cv 到 FE angular 的实时视频流
我有我的 python 代码,它将从 localfile 系统读取视频触发 ML 模型并使用 open cv 连续将视频保存到 localfile 系统。在这里,我不是将其存储到本地文件系统,而是将其流式传输到 FE 应用程序。我有一个基于 Web 浏览器的 Angular 应用程序,它需要实时显示这个视频。这怎么可能实现。
webrtc - 如何在运行 AudioContext 脚本处理器时更改 WebRTC 发布流的音频设备?
出于本示例的目的,我使用来自 Ant Media Server 应用程序的基本发布 HTML/js 代码(请参阅https://github.com/ant-media/StreamApp/blob/master/src/main/webapp/index .html)。(注意——我实际上是在使用企业版和 WebRTC)
在该代码之上,我正在创建一个脚本处理器以在 AudioContext 上运行,以显示麦克风级别的 VU Meter(为发布而简化的代码):
当用户尝试切换设备时,我会stopVUMeters()
在尝试切换音频设备之前运行,我通过调用switchAudioInputSource()
ant_webtc_adaptor.js 文件来执行此操作:
但是,当我进行切换时,它无法告诉我另一个设备正在使用麦克风。
如果我根本不启动 VU 表,那么它工作正常,所以我相信问题在于我AudioContext
没有释放它对音频的保留,但我不知道如何解决它。我需要在 iOS 上支持 Safari,所以我还不能使用 audioworklets。
如何干净利落地释放音频以便切换音频设备?或者,有没有一种方法可以从 WebRTC 流中获取麦克风活动,而无需首先创建新的 AudioContext?
编辑
我一直在尝试更多。此问题发生在 Firefox (Mac) 中。在 Chrome (Mac) 上,我可以切换设备,但 Audiocontext 保留在默认(我认为)设备上(或者设备切换无法正常工作,我也要检查一下)。在 Safari 中,它可以正常工作。我还没有能够在PC上试用它。
python - 如何在 WebRTC 服务器上实时处理远程音频/视频流?
我是音频/视频流的新手。我正在使用 AntMedia Pro 进行音频/视频会议。将有 5-8 位主持人发言,预计观众人数为 15-20k(需要提及,因为它不是 P2P 会议,而是 MCU 架构)。
我想提供一个功能,用户可以请求“将语音转换为女性/机器人/任何东西”,这将使用户在会议中听到被操纵的声音。
据我所知,我想在服务器上进行实时处理才能做到这一点。我想截取服务器上的流,并对每个音轨进行一些处理(更改声音),然后将其流回请求者。
我面临的第一个挑战是如何在服务器上获取流和/或单个轨道?
我对如何在服务器上实时处理远程 WebRTC 流进行了一些研究。我遇到了一些关键字,例如RTMP ingestion
, ffmpeg
。
以下是我遇到的一些问题,但没有找到我正在寻找的答案:
我需要帮助来接收服务器上的实时流(任何技术——最好是 Python、Golang)并将其流回。
rtmp - RTMP 从 Nimble Streamer 推送到 Ant 媒体服务器时出现无效的握手错误
当我使用 Nimble Streamer 和 WMSPanel 创建 RTMP 流时,我在 Ant Media Server 中收到以下错误。这个问题有什么解决办法吗?
2020-07-26 19:45:39,745 [NioProcessor-11] WARN orsnet.rtmp.InboundHandshake - 客户端摘要验证失败 2020-07-26 19:45:39,746 [NioProcessor-11] WARN orserver.net.rtmpe.RTMPEIoFilter -客户因无效握手而被拒绝