问题标签 [janus-gateway]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
webrtc - 如何将 webRTC 内容提供程序连接到 Janus-Gateway 流插件
在 gstreamer - streamingtest 示例 ( https://janus.conf.meetecho.com/streamingtest.html ) 中,gstreamer 管道正在发送到 udpsink host=127.0.0.1 port=5004,然后通过 Janus 中的 webRTC 进行广播。如何通过浏览器 getUserMedia() 将另一个用户的网络摄像头流发送到 Janus-Gateway 进行广播?我是否也必须为它配置一个管道,它会是什么样子?
我已经安装了 Janus,并且能够运行所有的 Demo。
installation - Janus WebRTC 安装问题
我在 Ubuntu 机器(14.04 64 位)中安装 Janus WebRTC 网关。我按照以下链接中的说明进行操作:
但是,尝试执行 janus 时出现以下错误:
https://github.com/meeetecho/janus-gateway(readme.md文件)
[致命] [janus.c:main:3670] 没有可用的 Janus API 传输...启用至少一个并重新启动 Janus
任何人都知道问题可能是什么?我将只使用没有 WebStockets 或 RabbitMQ 的 REST API。
compilation - Janus WebRTC 安装问题?
我正在 Beaglebone Black(BBB) 上安装 Janus WebRTC。我执行janus_config.sh
下面的脚本文件来设置环境变量:
运行命令时source janus_config.sh $PREFIX
,出现错误,请参阅下面的 config.log 了解更多详细信息:
我认为问题出在这里,因为 openssl 目录不是我在 janus_config.sh 中设置的,我将 openssl 安装在 /home/debian/usr/local
你能帮我找出这里的问题吗?
video-streaming - Janus WebRTC Gateway 中用于 RTSP 流源的视频流问题(对于 janus_streaming 插件)
我在 Ubuntu Server 14.04.4 LTS 上安装了 Janus WebRTC Gateway,并在 apache2 http 服务器上部署了 Web 示例。我正在尝试 Janus 网关附带的现有 Streaming 演示示例。
我已通过以下设置在“janus.plugin.streaming.cfg”配置文件中启用(默认情况下禁用)rtsp 流支持。
RTSP 流是使用 Live555 代理服务器 API 生成的,它可以在 VLC 播放器上正常工作。
现在,我在流媒体演示页面中获得了另一个频道(下拉菜单中的选项),即“RTSP 测试(直播)”。当我单击Watch or Listen
按钮时,控制台上出现以下错误并显示等待符号:
在 Chrome 上:
无法解析 SessionDescription。期望行:v=
在火狐上:
InvalidParameterError:提供给 setRemoteDescription 的空 SDP 或空 SDP
请帮助我解决此问题或建议我任何想法/代码更改以使用 Janus 网关播放 rtsp 到 WebRTC 流。
ffmpeg - ffmpeg 将 VP8 发布到 Janus 网关 100% CPU MBP
我希望使用 Janus Gateway 从单一来源向一千名观众传输非常低的延迟。
我的目标是 VP8 视频流,因为 H.264 支持还没有在 Chrome 中下降。
我的配置是
我最初使用内置网络摄像头在 OSX 上进行测试。这是管道
但是我在 Retina Macbook Pro 上的 CPU 一直处于 100% 的状态,而且我在客户端每隔几秒钟只能获得几帧。我认为从内置 iSight 摄像头到 VP8 的转换过于密集。有没有办法使这种转换更有效?
raspberry-pi - 带有 Janus Gateway ICE 错误的 RPI WebRTC 上的 UV4L
我需要使用 webrtc 从 RPI 相机流式传输到 Janus 房间。我在我的 PI 上安装了 UV4L,并尝试使用网关 URL https://janus.conf.meetecho.com进行演示:它的工作。
我在服务器上安装了 janus-gateway(此处为演示:https ://janus.kizbat.com),网关 url 为:janus.kizbat.com:8089 Janus 摄像机室与浏览器(我电脑上的 chrome)配合得很好,但是当我尝试在 pi 上连接 uv4L 时,我在 janus 日志中收到此错误:
我试图设置一个 STUN/TURN 服务器,但我得到了同样的错误。
你有想法吗 ?
webrtc - Webrtc stream local video file
How would one stream a local media file(video file) to peers?( i am using janus-gateway - videoroom plugin for this ).
For audio there is webAudio, but what about the video?
Thanks!
Update: Maybe someone has an example? Or a small code snippet? Maybe a link to some lib?
webrtc - WebRTC111 错误:DOMException [InternalError:“无法创建没有本地曲目、没有 offerToReceiveAudio/Video 和没有 DataChannel 的报价
我正在使用 webrtc+janusgateway+streamCapture 构建流服务。
这,开始流式传输视频:
视频播放效果很好,但是当我尝试创建报价(以及进一步的 addStream)时。我收到此错误:
相同的报价创建(不带 stream 参数)适用于网络摄像头流式传输,但不适用于视频流。
我发现的主要区别是网络摄像头使用:LocalMediaStream
,而我streamCapture
使用 MediaStream。
关于这个有什么想法吗?
webrtc - 如何将自定义视频属性添加到 WebRTC SDP?
有没有办法将自定义视频属性添加到 SDP?我们想通知应裁剪传输的视频以适合远程屏幕。
由于我们使用的是 Janus videoroom 插件,因此此信息在传递后也必须保留。
recording - 如何在 Janus 中录制视频通话?
我在视频通话中添加了一个“REC”按钮,点击后会发出以下请求:
本指南解释说
记录启用或禁用此对等点的记录;如果启用录制,文件名允许指定用于文件的基本路径/文件名(-audio.mjr 和 -video.mjr 会自动附加)
我试过视频通话。音视频mjr文件实际上是在指定路径下以指定名称创建的。然后(我仍然不知道还有什么其他方法可以播放它们)我手动添加了一个 .nfo 文件以使用插件“Recorder/Playout”读取它们 - 它适用于来自视频室的记录 - 但是当我打开从列表中记录它会出现消息“打开录制文件时出错”,并且在运行 janus 的终端中会出现这些错误和警告:
[ERR] [plugins/janus_recordplay.c:janus_recordplay_get_frames:1607] 标头无效...
[WARN] 打开录音时出错,尝试继续
[ERR] [plugins/janus_recordplay.c:janus_recordplay_get_frames:1607] 标头无效...
[WARN] 打开视频录制时出错,尝试继续
有人有解决方案吗?