问题标签 [webrtc-ios]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - Capacitor 3 React App mediaDevices 未定义,iOS 14.5
我有一个用 Capacitor 包装的 React Web 应用程序。大多数事情都很好,navigator.mediaDevices
但navigator.getUserMedia
除了undefined
. 我也没有收到请求用户许可的弹出窗口。
我已经在https://github.com/geckse/ionic-capacitor-webrtc-camera-example提取并构建了示例应用程序,它适用于我的 iOS 14.5 iPhone sim - 万岁!除了仔细检查外,它使用电容器 2 和现在已贬值的功能来请求相机权限。我尝试在我的 Capacitor 3 应用程序中使用相同的(折旧的)代码,但即使这样似乎也无济于事。我似乎找不到任何有关如何为电容器 3 中的电容器 Webview 正确请求相机访问权限的信息。
我的 Info.plist 中有以下内容
我在留言板和论坛上转了转,梳理了大量相似但不相同的问题。常见的事情似乎是示例应用程序都没有使用 Capacitor 3。我现在不知所措,因此出现了堆栈溢出问题。任何帮助将不胜感激。
ios - 如何在原生 iOS 应用程序中过滤 WebRTC 编解码器
有没有办法在创建RTP
之前在 iOS WebRTC lib 中为发送者设置音频/视频编解码器首选项SDP
?
RTCRtpSender -> parameters -> codecs
数组在对端连接冰收集状态为 之前为空complete
,但该状态仅在SDP
创建后通过回调上报。
使用 M91 WebRTC。
swift - WebRTC Call 想运行拨号音
我正在开发 WebRTC 应用程序,通话时一切正常,但我们想在通话响铃时运行拨号声音,直到对方接听电话
我尝试运行音频(wav 文件),但它播放了一秒钟,然后我觉得它被静音了
我想这是因为覆盖了 AVAudioSession
这是我在通话开始后播放拨号声音的代码
所以请你帮我解决这个问题吗?
等待回复
谢谢
webrtc - webrtc使用哪种视频处理算法来提高视频质量
同样,webrtc 中的音频处理模块是 webrtc 中具有不同图像处理算法的任何一种视频处理模块。
ios - 如何使用关闭 iOS webrtc mircoPhone?
我的场景:</p>
在我的 iOS 应用程序中,它只是使用 webrtc 播放 remoteVideo。我项目的 webrtc 是 cocoapods 中的 WebRTC iOS 框架。( https://cocoapods.org/pods/WebRTC )
这是我的代码:
它可以工作。在 setRemoteSDP 之后,我得到了 addStream 的回调。并且,将视图设置为 renderView。它可以在我的视图上显示 remoteVideo。
但我注意到 iPhone 的麦克风正在使用。如何关闭麦克风录音机?因为我不需要向远程客户端发布任何数据。在我的应用程序中,它只是一个接收器。
webrtc - 有多少 ICE 候选人可以交换视频通话?
假设有 2 个用户 用户 1:10 个 Ice 候选者生成 用户 2:5 个 Ice 候选者生成
而且我知道建立连接只需要 1 个候选人。因此,上述任何用户都将候选人发送给其他用户并建立连接。
我的问题是他们应该交换所有候选人,以便就最佳连接路线达成一致?
如果他们交换所有候选人,我所要做的就是将所有 Ice 候选人提供给我的 peerConnection,如下面的 dart 代码所示,对吗?
webrtc - https://appr.tc 已关闭。如何设置自己的信令服务器/房间服务器 URL?
我使用 WebRTC 在 Android 上开发了一个视频通话应用程序,并使用https://appr.tc作为信号服务器(房间服务器 URL)。但根据https://groups.google.com/g/discuss-webrtc/c/H7XuZfgkGH0 apprtc 现在已被删除。当我运行 AppRTC 演示应用程序时,我收到以下错误:
有人可以说明如何更改房间服务器 URL 或设置我自己的房间服务器 URL 吗?任何帮助,将不胜感激。谢谢
twilio - 即使在控制台中更改房间设置后,Twilio 房间类型也未设置为 GO
我正在按照下面的链接设置 Twilio WebRTC Go - 在 iOS 上使用 Swift 的一对一视频通话应用程序
https://www.twilio.com/blog/announcing-twilio-video-webrtc-go https://github.com/twilio/twilio-video-app-ios
但是当我运行应用程序并使用生成访问令牌时
我得到的房间类型为
我已经在房间设置的控制台中将房间类型设置为 Go,即使它返回“组”。
如何将房间类型更改为 GO?任何帮助,将不胜感激。谢谢
webrtc - 为什么将 wbrtc_ios 编译为框架时缺少一些 .h 文件?
我是 WebRTC 的新手。我克隆了 webrtc_ios 主分支,并按照此处的说明使用 arm64 的 python 脚本构建了框架。当我将它作为框架添加到我的 Xcode 项目中时,一切都很好。项目构建后,我可以使用 <WebRTC/...> 语法导入文件。
但是,我需要使用 RTCMTLRender.h 文件。使用 python 脚本构建框架会留下一些头文件。(当我查看构建框架中的 WebRTC.h 时,我可以看到这个文件丢失了)如何在构建框架时包含 /webrtc_ios/src/sdk/objc/components 文件夹中实际存在的所有头文件? 在使用构建脚本之前,我可以看到 RTCMTLRenderer.h 和 .mm 文件位于该文件夹中。当变成框架时,这些文件不再存在于框架中。为什么?还有其他方法可以将这些文件实际复制到项目中吗?