问题标签 [apprtc]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 如何自定义 AppRTC 接听电话
我已将AppRTC集成到我的项目中,并且可以使用 RoomName在https://apprtc.appspot.com的房间中加入 WebRTC 通话
我可以在我的应用程序中硬编码RoomName 并将应用程序安装在两个设备 A 和 B中,如果我同时在 A 和 B 中从两个设备拨打电话,那么我可以在它们之间成功地进行 WebRTC 通话。
现在我想做一个真正的 VOIP 通话,即从设备 A 中的应用程序拨打电话,然后在设备 B 中的应用程序上接听电话。
AFAIK 我必须在这里做信号部分才能从设备 A 连接到设备 B 中的应用程序。
任何帮助都非常感谢!
javascript - appRTC 默认参数在哪里指定?
WebRTC 演示应用 AppRTC 包含一长串参数。这些可以在 URL 中设置,如下所述: https ://apprtc.appspot.com/params.html
默认参数在哪里/如何在代码中以编程方式设置?
例如,如果我们要更改默认超时 (tt) 或默认发送比特率 (vrbr),那么在 appRTC 代码中的哪个位置完成?事实证明,在代码中查找参数的设置位置并不像听起来那么简单。似乎没有参数默认值的中心位置,即使通过一些代码分析,更改默认值的逻辑也不清楚。参数设置和重置多次,可以通过多种方式进行设置,它们通过多台机器上的不同代码库通过 HTTP 传递。
谢谢
webrtc - Web RTC 服务器仅在 localhost 中运行
我已经在我的 PC 中配置了 Web RTC 服务器。它正在与http://localhost:8080一起使用,但是此服务器未与另一台机器中的 IP 地址一起使用。
我已经用这个URL引用了 Web RTC Server 。
webrtc - getUserMedia 错误:无法访问本地媒体 - WEBRTC
我已经在我的 PC 中配置了 App RTC 服务器。当我使用本地主机(localhost:3000)访问时。视频通话正在运行。但是当我使用 IP 地址时出现错误。( http://192.168.0.103:3000 )
无法访问本地媒体。错误名称是 PermissionDeniedError。继续而不发送流。
获取用户媒体时出错。只允许安全来源。
getUsermedia 错误:无法访问本地媒体。
websocket - webRTC appRTC ,在大约 2 分钟的间隔后,通话之间的连接会自动终止(ISBX 演示)
我正在使用来自 ISBX 的 git 库,并在我的 swift 应用程序中集成了视频通话功能,一切正常。它只是一个主要的障碍,大约 2 分钟后连接会自动终止,并出现以下错误:-
WebSocket 以代码关闭:1001 原因:遇到流结束 wasClean:0
详细错误
2016-07-18 12:44:20.687 testOttaApp-QA[527:74428] WebSocket 关闭,代码为:1001 原因:遇到流结束 wasClean:0
2016-07-18 12:44:20.687 testOttaApp-QA[527:74428] C->RS: BYE
2016-07-18 12:44:20.687 testOttaApp-QA[527:74428] url = https://apprtc.appspot.com/leave/ootaTest82/54508636
2016-07-18 07:14:21.503 testOttaApp-QA[527:16e893000] 信息 MMINTEGRATION CMediaPlatformWrapper.cpp:937
CMediaPlatformWrapper::DevicePropertyChanged 调用
2016-07-18 07:14:21.504 testOttaApp-QA[527:16e893000] 信息 MMINTEGRATION CMediaPlatformWrapper.cpp:969 CMediaCallWrapper::fireMediaPlatformEvent() 调用类型 4 断开连接!
2016-07-18 07:14:21.514 testOttaApp-QA[527:1a05f7000] 信息应用程序 CUcmpConversationsManager.cpp:2348 CUcmpConversationsManager::onEvent()。事件类型:4
2016-07-18 12:44:22.989 testOttaApp-QA[527:74428] 从房间服务器取消注册。
swift - How to get frame data in AppRTC iOS app for video modifications?
I am currently trying to make some modifications to the incoming WebRTC video stream in the AppRTC app for iOS in Swift (which in turn is based on this Objective-C version). To do so, I need access to the data which is stored in the frame objects of class RTCI420Frame (which is a basic class for the Objective-C implementation of libWebRTC). In particular, I need an array of bytes: [UInt8] and Size of the frames. This data is to be used for further processing & addition of some filters.
The problem is, all the operations on RTCVideoTrack / RTCEAGLVideoView are done under the hood of pre-compiled libWebRTC.a, it is compiled from the official WebRTC repository linked above and it's fairly complicated to get a custom build of it, so I'd prefer to go with the build available in the example iOS project; in my understanding it's supposed to have all the available functionality in it.
I was looking into RTCVideoChatViewController class and in particular, remoteView / remoteVideoTrack, but had no success in accessing the frames themselves, spent a lot of time researching the libWebRTC sources in official repo but still can't wrap my head around the problem of accessing the frames data for own manipulations with it. Would be glad for any help!
video - 如何使用套接字 io 在 Apprtc 中录制视频?
我正在使用此代码https://github.com/ISBX/apprtc-node-server在我的网站中进行视频聊天。这很好,但我也想录制这个视频。我怎样才能做到这一点?
android - Android webrtc 不适用于 3g、4g
在 android 应用程序中,我有用于视频通话应用程序的用户 webrtc。
如果手机与wifi连接,那么应用程序可以完美运行。
当我将 wifi 更改为移动数据并启动应用程序时,应用程序无法正常工作,也无法显示视频。
我的应用程序和服务器端 kurento 中有用户 webrtc。
以下状态的场景列表:
- 浏览器客户端 + 移动客户端 ->都在同一个 Wifi 网络上(同一个 wifi 网络上的 KMS 服务器) -> 工作正常。
- 移动客户端 + 移动客户端 ->都在同一个 Wifi 网络上(同一个 wifi 网络上的 KMS 服务器) -> 工作正常。
- 浏览器客户端+移动客户端->其中一个在wifi上(同一wifi网络上的KMS服务器),另一个在移动数据网络上->不工作
- 移动客户端+移动客户端->其中一个在wifi上(同一wifi网络上的KMS服务器),另一个在移动数据网络上->不工作
我们检查了为所有这种情况生成的候选者,发现它们是相同的,唯一的区别是生成了多个候选者。
我们有板条箱转服务器以及 Stun,但视频无法在3g 连接的 android 客户端中显示。
任何人都有解决方案然后帮助我。
提前致谢。
swift - 如何在 appRTC iOS 中本地录制和保存 RTCVideoTrack?
我正在使用重播套件来录制屏幕,我想要实现的是在使用 webRTC SDK 进行通话时使用音频录制或捕获屏幕。我使用了来自 github 的 appRTC。
我想我可以通过 AVCaptureSession 实现这一点!因为我要排除 replayKit 没有相关代码可以提供。