问题标签 [mediastream]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - Android 8 不支持 MediaStream
我正在实施关于 React Native 的视频会议。我正在使用 react-native-webrtc npm 包。这是我所做的:
- 我尝试通过 WebRTC.getUserMedia 方法获取本地流。
- 我使用 addStream 方法将它添加到 PeerConnection。
如果我们使用低于 8 的 Android 版本,它可以正常工作。当我使用 Android 8 时,两端都不会显示流。请帮忙。
javascript - 从服务器向客户端发送媒体流
我需要使用 express 将 MediaStream 从电子桌面 Capture 发送到 Live HTML5 Video 标签。问题是我无法从媒体流创建 fs.createReadStream。我认为我不需要为此使用 WEB-RTC。代码如下
应用程序.js
websocket - 如何将 js mediaStream 发送到服务器并返回处理后的流?
我想将实时网络摄像头流从网站发送到我的服务器,服务器将对帧进行一些处理并返回处理后的流。我正在考虑使用 WebRTC 将实时流发送到服务器(服务器作为对等方),并通过 WebSocket 按图像返回处理后的帧。有没有更简单的方法来做到这一点?
javascript - 使用 getUserMedia() 访问浏览器音频输出?
我正在尝试从浏览器捕获音频输出并将录制的文件保存在 JavaScript 中(不使用 3rd 方应用程序或浏览器扩展)。
在查看WebRTC 示例中的示例后,当使用getUserMedia()
.
有没有办法捕获只是浏览器音频输出的 MediaStream?或者是否有更好的方法可以以可以记录到文件的方式访问浏览器的音频输出?
对于上下文,我在浏览器中的音频输出可能来自几个音频库之一(例如 Tone.js),因此我宁愿不依赖从生成音频的 JS 库生成音频文件。我已经研究过从 AudioContext 编写一个文件,但我试图找到一些与音频源无关的解决方案。
javascript - chrome.desktopCapture - 不能同时录制系统音频和麦克风?
我构建了一个 Chrome 扩展程序,可以捕获屏幕活动和麦克风输入并输出视频文件。由于chrome.desktopCapture
无法在屏幕捕获的同时录制音频输入,因此我将麦克风放在自己的单独流中。所以:
然后,稍后,当我拥有两个流时,在开始录制之前,我通过创建一个主流来合并它们,并将来自单独的视频和音频流的各自轨道添加到其中。
最终,当我最终得到一个视频文件时,效果很好。我得到屏幕和麦克风。
问题:如果我要求 Chrome 也录制系统声音,为什么这项技术不起作用?
因此,如果我更改['screen']
为['screen', 'audio']
,其他一切都相同,我最终会在生成的视频中没有麦克风。
如果我getTracks()
在 上输出master_stream
,这就是我得到的:
我看不出为什么添加系统音频会在结果输出中杀死麦克风音频的明显原因。有人有什么想法吗?
javascript - MediaStreamRecorder 不是构造函数
我是 Angular6 的新手,我正在尝试使用MediaStreamRecorder
. 我在定义时肯定做错了什么,MediaStreamRecorder
因为我不断收到错误TypeError: msr__WEBPACK_IMPORTED_MODULE_4__.MediaStreamRecorder is not a constructor
。不知道我应该如何或在哪里声明和定义MediaStreamRecorder
. 你能帮我解决这个问题吗?
我已经安装了msr
模块,我的代码如下所示:
javascript - 如何使用网络音频 api 获取原始 pcm 音频?
usergetmedia 如何在 chrome 中使用麦克风然后流式传输以获取原始音频?我需要在线性 16 中获取音频。
javascript - Javascript 中的 MediaSource 与 MediaStream
我的 Javascript 应用程序通过 Websocket 连接获取 WebM 视频流。远程对等方发送视频帧和应用程序获取它们之间没有延迟。
我在应用程序中创建了一个MediaSource
对象,我“附加视频帧”,并让一个视频元素显示它:
这很好用,但是有一些(不到一秒)延迟,可以说这个解决方案对于视频通话来说不是最佳的。
显然,一些 WebRTC 应用程序使用MediaStream
:
...而且这些显示没有延迟。
我无法从文档中确定浏览器的处理src
方式是否srcObject
不同。
我找不到的另一件事是是否可以MediaStream
像使用MediaSource
. 我想尝试一下,只是为了检查是否srcObject
不会导致我的申请出现上述延迟。
如果我使用:
我得到错误:
TypeError:无法在“HTMLMediaElement”上设置“srcObject”属性:提供的值不是“MediaStream”类型
webrtc - WebRTC 视频/音频流不同步(MediaStream -> MediaRecorder -> MediaSource -> Video Element)
我正在使用一个 MediaStream 并使用画布和 WebAudio API 合并两个单独的轨道(视频和音频)。MediaStream 本身似乎并没有不同步,但是在将其读入 MediaRecorder 并将其缓冲到视频元素中之后,音频似乎总是比视频播放得早得多以下是似乎有问题的代码:
AudioMixer.js
我认为这与如何将数据推送到 MediaSource 缓冲区有关,但我不确定。我在做什么使流不同步?
javascript - 如何使用 javascript 从上传的音频文件或音频文件 URL 创建 MediaStream?
我知道如何使用navigator.getUserMedia从浏览器和系统的默认输入设备(麦克风)获取音频流。但是,如果我想从上传的音频文件或音频文件 URL中获取MediaStream怎么办?
欣赏是否可以提供代码示例。