问题标签 [live-video]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - 如何从 HTML 和 JavaScript 发布实时视频流?
我有这段代码可以输入相机并将其显示在网络浏览器窗口中(仅在从网络服务器提供服务时才有效,而不是直接通过打开文件):
我想将视频直播到一个 URL(例如:到 "/publish/?password=" 如https://github.com/vbence/stream-m)
我该如何编码?
谢谢!
facebook - 获取实时 Facebook 视频的帖子 ID
是否有任何 Facebook API 可通过提供 live-video-id 来获取实时视频的 PostId?
我需要在直播视频下发表评论。不幸的是,Facebook 不支持通过 live-video-id(Live Video Comments API)创建评论,但可以通过向/v2.8/{post-id}/comments
端点发出 POST 请求来在实时视频下发布评论。现在我找不到从 live-video-id 获取 post-id 的端点。
谢谢
linux - 对等方重置连接后 Nginx RTMP 重新连接
我使用 nginx-rtmp 模块将视频流式传输到不同的流媒体服务(facebook live、google、ok.ru 和 vk.com)。所有流媒体服务都可以正常工作,除了 vk.com,它会随机重置连接。日志文件:
对于重定向流到它的目标我使用on_publish
指令。之后如何将流重新连接到其目的地
谢谢!我的 nginx.conf:
android - Android Exoplayer : Get currentTime for a live stream
How do you get the current time for a live video(rtmp) when using Exoplayer? I tried
but the values start from 0 and not the actual time of the live stream. Is it possible to get the actual video time?
android - Facebook 打算在 Android 中显示实时视频
我有一个来自后端的 Facebook 视频链接(可以是直播的也可以不是直播的)。当我在我的 android 应用程序中按下按钮时,我想在包含此视频的页面上打开 Facebook 应用程序。我为此使用以下代码:
它工作正常,但仅限于非现场视频。当我尝试使用实时视频链接打开 Facebook 应用程序时,Facebook 屏幕出现错误。那么,如何解决这个问题呢?
facebook-graph-api - Facebook Live API:删除直播视频
我通过 Faceboook API(v3.1,实现了所有最新更改)创建了一个实时视频,它对我来说没问题。当我尝试使用通话删除视频时:
为什么?我已经在 oAuth 登录中请求了所有需要的权限(“publish_video”、“publish_pages”、“manage_pages”、“user_managed_groups”、“user_friends”、“public_profile”、“user_videos”),否则我无法创建直播视频。
ffmpeg - 如何使用 FFmpeg 直播带字幕的 HLS 流?
我想使用 FFmpeg 来直播带字幕的 HLS 流。我有一个媒体。媒体有一个视频轨道,两个音频轨道,四个字幕。但是,我尝试了这个命令:
它显示此错误:
如果命令不加字幕:
流媒体工作没有错误。我长时间找不到带有字幕示例的 FFmpeg 流。
android - 将视频从一部 android/ios 手机直播到另一部 android/ios 手机
我已经在互联网上搜索了几天关于如何实现从 android/ios 手机到另一部 android/ios 手机(实时视频聊天)的实时视频流功能,但我似乎找不到任何有用的东西。我查看了 android 开发人员的示例代码、stackoverflow、google、android 博客,但我找不到任何可以在我的实现中借用的东西。
我正在寻找任何解决方案,无论中间有没有服务器。我更喜欢没有但中间有服务器也可以。
我认为一个好的描述性答案可能很有用,因为它是许多人正在寻找的接缝。
reactjs - simpleWebRTC RemoteMedia 视频不包含正确的 screenCapture bool
我正在尝试通过SimpleWebRTC React 组件库实现一些 WebRTC 视频。
我在从用户 A 共享屏幕并从用户 B 查看它时遇到问题。
共享时,用户 A 的 LocalMedia 包含一个媒体对象screenCapture: true
加入房间并查看远程媒体时,用户 B 的 RemoteMedia 不包含任何具有 的媒体对象screenCapture: true
,但除了该键/值之外,其中一个媒体项是相同的。
这是我用来从用户 A 的 UI 共享我的屏幕的<RequestDisplayMedia />
组件代码,但我似乎找不到其他任何地方我需要定义/设置这个 screenShare 以被适当地捕获。
c++ - 在 qt c++ 应用程序中显示实时视频的问题
我想在 qt 应用程序(OS Linux)中显示连接到树莓的相机的实时流。谷歌搜索后,我发现我必须在 QLabel 中显示视频。显示图像时没有问题,一切正常,但是当我想在 QLabel 内显示直播流时,直播流窗口会单独打开(不在 QLabel 内)。你能告诉我如何解决这个问题吗?这是我的代码:
此代码打开视频捕获屏幕并在 20 秒后捕获图像。唯一的问题是捕获屏幕(可以用作实时流)。没有显示在“Lable_2”中。在不使用 OpenCV 库的情况下有没有办法做到这一点?如果没有,请告诉我如何使用 OpenCV 进行操作。
谢谢