问题标签 [openwebrtc]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
webrtc - openwebrtc 演示无法在 Chrome 中运行
Chrome 支持 WebRTC。
但是openwebrtc我无法运行
http://demo.openwebrtc.org:38080/
虽然 apprtc 我能够运行
那么为什么会出现这个问题呢?
那么openwebrtc 和 apprtc 有什么区别呢?
这些 e有什么不同的实现吗?
我知道两者都使用 WebRTC API
所以我的直觉是我用于 openwebrtc 的演示示例不是 https,所以 chrome 不允许它访问相机,mike,所以它不起作用。而 Apprtc 示例是 https
web - 如何在听筒中播放网络音频
我正在使用 Cordova 为移动设备实施 WebRTC 项目,因为我希望在移动设备的听筒而不是扬声器中播放音频。
是否有任何 API/方式可以在听筒中播放音频,
我将 cordova-plugin-iosrtc 用于 iOS 应用程序和用于 android 的人行横道。
谢谢,神道
reactjs - 无法在 WebRTC 中绑定 EAGLDrawable 反应本机
我将使用 React 本机 iOS 通过 webRTC 创建视频聊天。为此,我为 iOS 编写了 react 本机代码。它要求我访问相机,但之后它无法加载视频并抛出一个温暖的消息,
我知道上面的警告是由于没有看到相机来渲染视频帧。但是我不知道我的反应代码有什么问题没有给它框架,我的代码如下,
我有兴趣知道我错在哪里?
linux - 在 linux 上运行 openwebrtc 应用程序
我试图让一个简单的本机客户端通过 webrtc 协议在 linux 机器上使用 openwebrtc 流式传输音频和视频。
我已按照此处的构建说明进行操作。https://github.com/EricssonResearch/openwebrtc/wiki/Building-OpenWebRTC
没有 linux 示例代码,所以我一直在尝试一点一点地复制 OSX 代码,直到我有一些工作。https://github.com/EricssonResearch/openwebrtc-examples/blob/master/osx/Camera%20Test/Camera%20Test/AppDelegate.m
问题是我使用 g_assert 或 g_object_get 等 glib 函数编译错误。
这些是我在 Makefile 中设置的环境变量
作为 openwebrtc 安装的一部分,cerbero 在/opt/openwebrtc-0.3/lib/
. 我还尝试安装 apt 包libglib2.0-dev
并注释掉我的 PKG_CONFIG_PATH 不起作用。
如何让我的构建过程正确地合并 glib?
webrtc - SIP-WebRTC 网关/网桥:Kurento 或 openwebrtc 或 Intel CS for webrtc
我正在研究 WebRTC-SIP 网关/网桥的实现。也就是说,例如,通过像 Asterisk 这样的 SIP 服务器向 SIP 端点发起 WebRTC 呼叫。我知道 Asterisk 已经支持这一点,但我需要一个中间服务器来满足各种需求,例如日志记录、记录、与本地身份验证/信令和其他应用程序模块的集成。我查看了Kurento、Openwebrtc (Ericson) 和鲜为人知的 Intel Collaboration Suite for WebRTC。
我需要一个服务器端解决方案来与我的节点应用程序服务器交互。具体来说,服务器 API 应该能够为 RTP 端点生成 SDP,并将 WebRTC SDP 转换为 Legacy SIP 服务器使用的更通用的 SDP,或者有办法桥接这两个端点。我对 Kurento 可以做到这一点感到很舒服(看到了一篇文章,除了我不知道 Kurento 有任何 jsSip/sipML5 类型的 API。Kurento 本身并不意味着提供信号。例如,如果 Kurento 生成的 SDP 用于Kurento 中的 rtpEndpoint 必须用于 SIP 呼叫/INVITE,如何实现?那么,如何从 Kurento 发起 SIP INVITE?是否有第三方模块可以做到这一点?
有没有人将上面列出的任何服务器用于类似的用例?
这是一道编程题。我正在寻找服务器 API 来实现 WebRTC 到 SIP 网关/桥以进行媒体转码(如果需要)、SDP 转换和 SIP 信令。
android - 原生 Android WebRTC 应用开发
我正在尝试使用 WebRTC Native API 创建一个用于视频聊天和消息传递的 android 应用程序。我浏览了几个链接,发现大多数 android 的文档都很模糊,特别是如果你不知道从哪里开始。我按照以下链接,
https://webrtc.org/native-code/android/#
https://www.chromium.org/developers/how-tos/android-build-instructions
但是上面提到的链接没有任何意义,因为我想开发一个 android 应用程序,这些链接建议下载一个 chromium 然后构建它。我知道最终结果将是一个 apk,但如果我想编写自己的代码怎么办。我也研究了 pubnub 和 OpenTokRTC,但我也不想使用其他人的信令服务(以及 pub 和 sub 键)。我尝试了以下链接,
https://github.com/pristineio/webrtc-build-scripts
但这对于 WebRTC 的新手来说似乎有点不完整,因为它建议通过以下命令获取 WebRTC,
最后我尝试了以下链接,
http://simonguest.com/2013/08/06/building-a-webrtc-client-for-android/
但是本教程的问题在于它根本没有更新。Libjingle 现在已经移到了 github,我不知道如何使用 gclient 从 github 获取 libjingle。
我的这场斗争是一场灾难。任何人都可以通过更新的文档或教程帮助我,我可以使用这些文档或教程来了解使用 webRTC 原生 API 开发应用程序到底需要什么?请不要给我任何指向 OpenTokRtc 或 PubNub 的链接。
谢谢
video - 有时不添加简单的 WebRTC 远程视频
我们正在集成 SimpleWebRTC 以允许用户进行群组通信。Xirsys 服务用于 STUN/TURN 服务器。我们按照以下链接中的教程进行操作,
它使用 simplewebrtc 沙箱单服务器进行测试。有时它工作正常,但是当新用户加入房间时,对等对象会显示在 UI 中,但不会添加这些用户的远程视频。当用户刷新页面时,视频会显示给他,但已经加入的其他用户无法查看其他人的视频。我猜客户端没有收到远程视频流添加事件。我什至记录了这些消息,并且当新人加入房间时看不到向客户端添加远程流消息。即使在对等对象中,流值也是“未定义的”。我解决了这个问题几天。请帮助我找出问题所在。
以下是供您参考的代码,
PeerConnectionConfig - 该值从 Xirsys API 调用中检索。
webrtc - WebRTC - 单向广播
如果用户打开网络摄像头广播,有多少观众可以加入观看?WebRTC 有限制吗?
node.js - 如何使用 webRTC-adapter 的 adapter.js?
我正在编写一个 WebRTC 应用程序并遇到以下问题:
我想使用adapter.js库。
我有以下 index.html:
我的 main.js 看起来像:
但我的浏览器记录了错误:Uncaught ReferenceError: require is not defined
webrtc - Webrtc 将麦克风输出和 mp3 混合成一个流
我正在创建一个基于 webrtc 的聊天应用程序。(getUserMedia api)。
试图实现这一目标:
1)选择一个像背景音乐一样的mp3文件(本地文件或网址)并唱一首歌。
2)另一端的用户应该能够听到这两个音轨(背景音乐+我的声音)
为了实现这一点,我试图将两个流(mp3 流 + 麦克风)合并为一个流并使用 webrtc peerconnection api中继到另一个对等点。但是我对合并两个流感到震惊。
我点击了这个链接https://dvcs.w3.org/hg/audio/raw-file/tip/webaudio/webrtc-integration.html但只听到麦克风输出。
请对此有任何帮助/指示吗?