问题标签 [apprtcdemo]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 我有一个 TURN 服务器,但我缺少什么?
我正在为 iOS 和 Web 构建 WebRTC 视频会议服务。到目前为止,我们一直使用 tokBox,他们提供整个包(客户端 API(ios 和 web)+ TURN 服务器。他们的解决方案还负责生成令牌和会话 ID 等。但我们希望拥有自己的设置,并且合作伙伴有给了我们一个 TURN 服务器。但是,能够在 iOS 和 Web 客户端之间进行 webRTC 视频会议,我们错过了什么?什么服务可以让我们只需插入 TURN 服务器地址/凭据并让它在 Web 上工作和iOS客户端?这些适合的包吗:EasyRTC、SkyLink、AppRTC?我们不需要很多功能,只需1-1视频通话,没有Bug。哪个最好?
google-app-engine - 如何将 Apprtc 的 collider 部署到 Google App Engine 中?
我已经在我自己的 GAE 服务器上部署了 apprtc 的谷歌应用引擎代码。我没有找到有关如何为 websocket 信号部署基于 Go 的对撞机的说明。
这是对撞机项目:https ://github.com/webrtc/apprtc/tree/master/src/collider
任何见解都会有所帮助。
android - 无法在 Android Studio 中解析符号 webrtc
我正在尝试在 Android Studio 中使用 webrtc。文件libjingle_peerconnection_so.so被放入文件夹src/main/jniLibs/arneabi-v7a。但是当我放入一个Java文件时:
它告诉我无法解析“无法解析符号 webrtc ”。任何帮助表示赞赏。
linux - apt-get install 找不到软件包
我正在尝试安装包 g++、libnss3-dev、libpulse-dev、libjpeg62-dev libxv-dev、libgtk2.0-dev、libexpat1-dev 以运行 AppRTCDemo。我正在写:
我收到了找不到包裹的消息。其他包也是如此。我找不到 rpm-s ether。Linux 版本是Linux 3.18.1-pclos1 i686。
android - appRTC Android 代码中音频和视频通话之间的切换
我在我的 Android 应用程序中集成了 appRTC 代码用于调用目的,这已完成。现在视频和音频通话工作正常。我的问题是,我需要实现以下目标。
1 . 通话时静音和取消静音。
2 . 通话时将视频通话切换为音频通话,反之亦然。
我已经搜索了很多,到目前为止没有运气。如果你能在这些事情上给我任何线索,那就太好了。提前致谢。
webrtc - openwebrtc 演示无法在 Chrome 中运行
Chrome 支持 WebRTC。
但是openwebrtc我无法运行
http://demo.openwebrtc.org:38080/
虽然 apprtc 我能够运行
那么为什么会出现这个问题呢?
那么openwebrtc 和 apprtc 有什么区别呢?
这些 e有什么不同的实现吗?
我知道两者都使用 WebRTC API
所以我的直觉是我用于 openwebrtc 的演示示例不是 https,所以 chrome 不允许它访问相机,mike,所以它不起作用。而 Apprtc 示例是 https
java - 如何使 apprtc 演示示例视频聊天在原生 android 中快速
我对 webrtc 做了一些研究,然后我找到了 apprtc 演示示例应用程序,它取自Android 中的https://github.com/njovy/AppRTCDemo。我已经实现了这个,但是这个应用程序需要时间来提供一个电话。它遵循这些步骤
1)它首先请求webrtc服务器,然后从服务器返回一个json。2)在程序中,它通过点击转向服务器 url 收集 4 个冰 url 并将其保存在链表中。3) 然后它通过在 webrtc 服务器 url 中附加 roomid 、 clientid 和 message 来发送报价,返回成功。
4)它打开它的套接字以便将来进行通信。
5) 现在它使用ice server 访问服务器四次,返回
json 格式的候选。
6)现在我已经使用了我们自己的服务器,可以将呼叫发送给其他人的手机。
7) 然后其他人接受请求并在 webrtc 服务器 url 上发布一个帖子,并从中返回 json。
8) 现在答案已创建并点击套接字打开。
9) Icecandidate 被该人接受并将该icecandidate 发送给其他人。
我使用的 webrtc 服务器是用 python 编写的 Google App Engine。在这我不知道如何通知其他人接电话。在这里,我使用了其他服务器来通知其他人进行呼叫。
完成这些步骤后,通信开始。有什么办法可以减少这一步,让沟通变得更快。
我还用自己的服务器打电话给其他人。我不知道python,这就是为什么我很难编辑服务器,这样它就可以在不借助其他服务器的情况下帮助通信。
web - 如何在听筒中播放网络音频
我正在使用 Cordova 为移动设备实施 WebRTC 项目,因为我希望在移动设备的听筒而不是扬声器中播放音频。
是否有任何 API/方式可以在听筒中播放音频,
我将 cordova-plugin-iosrtc 用于 iOS 应用程序和用于 android 的人行横道。
谢谢,神道
android - 我可以将 WebRTC-Native Android 演示与我的 kamilio/freeswitch 集成吗?
我是新来的,所以也许我的问题看起来也很傻。如果是这样,请教我,那么我将非常感激。
问题:
我将为我的 kamilio/freeswitch 构建 webrtc android 客户端。因此,我为 android 构建了 webrtc 并测试了 AppRTC 演示并进行了视频通话。我想知道的是我可以将此演示与我自己的 kamilio/freeswitch 集成吗?
希望尽快收到您的来信。
问候
ios - 如何自定义 AppRTC 接听电话
我已将AppRTC集成到我的项目中,并且可以使用 RoomName在https://apprtc.appspot.com的房间中加入 WebRTC 通话
我可以在我的应用程序中硬编码RoomName 并将应用程序安装在两个设备 A 和 B中,如果我同时在 A 和 B 中从两个设备拨打电话,那么我可以在它们之间成功地进行 WebRTC 通话。
现在我想做一个真正的 VOIP 通话,即从设备 A 中的应用程序拨打电话,然后在设备 B 中的应用程序上接听电话。
AFAIK 我必须在这里做信号部分才能从设备 A 连接到设备 B 中的应用程序。
任何帮助都非常感谢!