问题标签 [webrtc-android]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 我可以将 Web RTC 应用程序注册为呼叫应用程序吗
我在 webview 中实现了 web rtc。只要应用程序在前台,一切正常。
现在,如果应用程序处于后台/剂量模式。我想显示一个响铃屏幕,例如 what's app。当有人打电话时,我收到推送通知。
我知道我可以通过呼叫声音和通知的 onClick 显示通知警报。我可以显示我的应用活动。
是否存在这样的呼叫 网址
是否可以在不通知的情况下处理
或者我可以将我的应用注册为调用应用。这样每当发生呼叫时,我都会注册ConnectionService
并收到onCreateIncomingConnection
android - 致命错误:../../src/modules/utility/source/helpers_android.cc,第 74 行
我们面临一个与 Opentokfor Android 相关的问题,我们在其中添加了 proguard。您可以查看 log-cat 以获取崩溃日志。
Logcat 崩溃日志 -
webrtc - WebRTC 可以通过 Android USB 以太网连接工作吗?
我正在尝试在 Android 应用程序上使用 WebRTC 流式传输到使用 USB 网络共享连接在我的工作站上运行的媒体服务器。我看到有很好的信号,提供和答案似乎对 IP 地址有意义,但我没有收到任何 UDP 流式传输流量。
Android WebRtc 库中有什么东西会省略这个rndis0
接口吗?通过 Wi-Fi,一切都按预期工作,但如果系留以太网是唯一的连接,则不会。
android - android webRTC接收没有音频的呼叫
我正在使用 Native Android WebRTC lib 实现 VoIP。我已经设法从 Android 应用程序向浏览器拨打电话。我可以按预期听到和说话。但是,当我尝试从浏览器呼叫 Android 应用程序时,我无法在连接的线路上听到或说话。创建一个peerConnection
, setRemoteDescription
, setLocalDescription
, 创建一个Answer
all 按预期发生(理论上)。
PS:当我拨打电话时,我在我的 Android 设备顶部看到一个麦克风正在使用的小图标。但是当我接到电话时,我看不到这样的东西。
我想知道是否有人可以帮助我了解
sdp
创建Answer后设置为LocalDescription的哪个需要包含在其中的IP地址和ICE候选?如果是,我如何将它们包括在内,因为我没有看到 ICE 候选人并且 IP 地址是 0.0.0.0 IP4- 除了使用标准的本机 WebRTC 库之外,我是否必须做任何特定的事情来处理麦克风和扬声器。
android - Android-Webrtc:AndroidVideoDecoder 的 copyI420Buffer() 中出现断言错误
在少数设备(如摩托罗拉 Moto E4 Plus、Realme 6i、Lenovo K8 Plus)中,我在 AndroidVideoDecoder.java 的 copyI420Buffer() 中遇到断言错误。
在 Crashlytics 中,我发现了以下日志:
任何解决此问题的帮助或指导将不胜感激。
webrtc - webrtc 移动客户端连接到不同网络时没有音频
在我当前的项目中,我们正在使用 webrtc 来连接 android 中的两个移动客户端。
我们使用套接字信号在两个移动客户端之间交换数据。
我们能够在相同和不同网络的 android 移动客户端中连接对等音频和视频通话。
现在我们将 socket 信令更改为 freeswitch 的 verto 模块信令,以便我们可以使用 webrtc 进行 pstn 调用。
使用freeswitch的verto模块作为信令后,就可以成功拨打pstn了。
现在,当尝试使用 verto 模块进行点对点呼叫时,我们能够成功地在两个 Verto android 移动客户端之间交换媒体。
当它们存在于同一网络中时,我们能够听到两个 android 移动客户端之间的音频流。
但是当两个 android 移动客户端在不同的网络中时,我们无法听到音频。
只有从日志中观察到的冰候选在负面情况下失败。
我们也在同一网络中使用相同的 stun 并将应用程序的服务器转为应用程序调用。
非工作流的日志
也改变了我的眩晕和转向服务器。
但仍然是同样的问题。
android - 模拟器在视频通话期间显示黑屏
我正在测试一个简单的 webrtc 应用程序,为此我使用浏览器进行视频通话。我已经设置了一个运行 Android R (10.0+) 的模拟器,它模拟具有 4 GB 内存和 6 GB 硬盘空间的 Pixel 3。我使用模拟器和桌面之间的应用程序拨打了电话,在两个设备上都使用了 chrome,我在两个屏幕上都看到了参与者视频的黑屏。我使用了参数document.getElementsByTagName('video').readyState
,document.getElementsByTagName('video').networkState
并且我得到了值 0 或没有数据的 readystate 和值 2 或网络状态的加载。我用不同的模拟器(带有 Android Q 的 Pixel)尝试了相同的设置并检查了相同的参数,我没有遇到任何问题。我能够看到两位参与者的视频。谁能帮我吗?
android - 使用 WebRTC 进行音频或视频通话时打开自定义通话活动
我正在使用 webRTC 在我的应用程序中实现一对一的音频和视频通话。我已经使用接受和拒绝按钮进行了呼叫活动,只要有呼叫该设备令牌,就会出现该按钮。我正在使用 FirebaseMessagingService 和 ChildEventListener 来加载该调用活动。每当应用程序运行时一切正常,但当应用程序被终止时,活动不会显示。我怎样才能像在 WhatsApp 上一样在后台显示它?这是我的代码:
我的 FirebaseMessagingService 类:
任何提示或指导都会有所帮助。