问题标签 [libstreaming]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 使用 libstreaming 和 3G/LTE 进行直播
我正在使用 libstreaming ( https://github.com/fyhertz/libstreaming ) 为我的 android 手机流式传输到 VLC。
在本地网络中,我可以在 VLC 中观看流媒体,但是当我禁用 wifi 并使用 3g/lte 时,我无法在 VLC 中观看流媒体。
那么...如何使用 3g/lte 进行流式传输?
PD:我正在使用此https://github.com/fyhertz/libstreaming-examples的示例 1
谢谢!
android - 使用 wowza 实现实时视频 android 流
我正在尝试使用 wowza 实现实时视频流,但视频质量存在问题。我正在使用rtmp。
当我使用此代码时,它工作正常
我在这里得到的视频分辨率是 172 x 144 但是当我尝试设置其他分辨率等时
当我尝试使用三星 galasy s3 拍摄时,它无法在某些设备上运行(网页端的绿屏)等。
那么如何为所有设备设置质量或者我需要为不同的设备设置不同的质量?
谢谢。
android - 如何更改 Android MediaCodec 视频方向
我正在使用 libstreaming ( https://github.com/fyhertz/libstreaming ) 进行实时视频流传输,但视频的方向在接收器(服务器)端始终是横向的。我尝试使用 rotateYUV420Degree90(data,mQuality.resX,mQuality.resY) 旋转我的字节,但问题没有解决。我附上了用于转换下面字节的 libstreaming 库的代码。
有什么方法可以处理相机方向或录制的视频方向。请帮我解决这个问题。
android - libstreaming - videoQuality 未设置
我正在开发一个应用程序,使用 libstreaming 库通过 RTSP 从 android 设备流式传输实时视频。
我正在尝试使用以下代码更改视频质量:
但是当应用程序在设备上运行时,我在日志中收到以下错误:
但这是Suppored Media Format
文档中所述的分辨率(以 h.264 表示)http://developer.android.com/guide/appendix/media-formats.html
问题是什么?
编辑:应该可能添加 android 平台是 Google Glass (XE22)
video-streaming - libstreaming 录制视频功能
有一种方法可以使用 libstreaming ( https://github.com/fyhertz/libstreaming/ ) 将视频录制到本地文件?有人可以解释一下构建此功能的方法吗?
谢谢
java - 使用 wowza + libstreaming 进行 Android 直播
我想在 wowza 服务器的帮助下流式传输实时视频。目前正在libstreaming
与 wowza 一起使用,效果很好。
它适用于 WiFi。4mbps 速度。
但是当它连接到 3G 时就会出现问题,即使它至少是分辨率 -> 320x240
。它会变得像素化、褪色,有时甚至会停止。
有什么我可以做的事情,比如缓冲视频而不是像素化/褪色/质量差的视频?
除了 API,还有其他 APIlibstreaming
吗?
谢谢
android - 使用 libvlc 和 libstreaming 进行流式传输
如果可能,我想获得有关如何执行以下操作的建议:
我给了 3 个 android 设备,我想一次从一个流到另一个(也可能向后),但也将它保存在第三个平台上(一台 pc 可能有很多空间)以供以后处理。我想让这台电脑作为“服务器”,我从设备 A 接收流,将其保存并转发到设备 B。我还想要设备 AC 和 BC 之间的这种类型的连接。简而言之就是这个想法。
我现在拥有的是我可以使用 libstreaming 和 libvlc 将设备 A 的相机流式传输到设备 B 来接收它。
是否有可能实现这样的系统,如果可以,难度有多大?
提前感谢您的任何回复。
android - libstreaming - 如何旋转流视频?
libstreaming 工作正常 - 在横向模式下。不幸的是,我的应用程序必须以纵向模式运行。预览窗口没问题 - 我可以将其设置为直立
session.setPreviewOrientation(90);
但是流的接收者仍然会侧向观看视频。有解决方案吗?
在 Android 的 Mediarecorder 中,有一个方法 setOrientationHint(int degree) 可以旋转流式传输/录制的视频。但是我在 libstreaming 中没有找到类似的东西......
android - 如何在android上提取rtp数据包时间戳
我正在做一个项目,我使用 rtp over udp 通过 wifi-direct 将视频从一个 android 设备流式传输到另一个设备。
本质上,第一个 android 设备托管一个 rtsp 服务器并监听连接。一旦客户端 android 设备连接到它(通过 wi-fi 直连)并开始侦听数据包,第一个设备就开始流式传输视频内容。
我知道 RTP 数据包标头在位偏移 32 - 64 处具有 32 位时间戳。但我不知道如何访问数据包的内容并随后仅访问其标头的该段。
目前,我正在使用 libvlc 在设备上播放流式视频。但我希望能够测量两个设备之间的延迟。通过从到达时的数据包中提取时间戳或通过其他方式(也许 VLC 可以提供帮助?)
编辑:我将尝试从此处发布的代码中学习,但仍在等待任何回复。
Edit2:所以我试图变得更简单。相反,我创建了一个客户端活动来连接到远程主机并使用 android 的 DatagramSocket api 以这种方式读取数据包。但是,即使客户端活动说它已连接,我的服务器活动也不会开始服务。不确定需要做什么才能让服务器知道有一个客户端可以服务。MediaPlayer 和 VLC api 都能够在连接后开始流式传输视频。我错过了什么?我需要做的不仅仅是 DatagramSocket.connect(ipaddress, port) 吗?
android - 为 Google Glass 添加缩放功能
我有一个应用程序通过 RTSP 将视频发送到媒体服务器,然后可以访问该服务器。我的问题是如何放大视频源(即使我可以在代码中添加一个固定的缩放值)。我正在使用 libstreaming 库,所以我有点不确定在使用它时如何添加缩放功能。
我在我的initRtspClient
功能中配置相机分辨率等:
当我设置这些其他参数时,我是否只需添加代码来设置相机的缩放级别?