问题标签 [libstreaming]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Rtsp流媒体绿屏(Android)
大家好,我正在开展一个项目,以通过网络流式传输 android 设备的屏幕内容。我使用 libstreaming 作为我的代码库。
我已经取得了几件事:
- 我可以使用 MediaCodec 和 VirtualDisplay(使用 MediaProjection)将屏幕录制到 mp4 文件中。这只是为了验证参数是否正常。
- 我可以通过网络从 MediaCodec (ByteBuffer) 发送数据。我已经打印了为每一帧发送的实际流,它似乎不同并且不是空的。我什至使用了wireshark,我可以看到所有使用UDP协议发送的包。
现在我有一个问题。当我使用 VLC 连接到 rtsp 服务器时,视频屏幕会打开。但我能看到的只是一个绿屏,有时是灰色的。仅仅一秒钟甚至更短的时间,有时我可以看到安卓屏幕的一部分(例如其中一个图标)。
如果我从相机流式传输视频,它正在工作的同一个项目。这让我觉得所有的分包和 rtsp 服务器都可以。
我从命令行运行 vlc,这是我得到的一个例子:
这是来自 vlc 的日志:http: //pastebin.com/3TsDKrur
sps 和 pps 参数设置正确。当我连接到 rtsp 服务器时,我可以看到它回复了 sdp 配置,并且两个参数都在其中。
有人知道我在这里可能做错了什么吗?
谢谢。
PS:我没有发布任何代码,因为它有点大,当帧来自相机时似乎很好。如果有人需要它,我将非常乐意发布它。
更新:
我一直在尝试更多地调试代码。可能是没有正确创建 rtp 数据包?有什么方法可以检查格式是否正确?我一直在寻找一个在 java 中创建数据包的示例,但我找不到。任何建议都将受到欢迎。
到目前为止,我一直在使用 libstreaming 中的 H264Packetizer,但我认为它是不正确的,因为它是一个非常古老的代码。
在这里,您有一个从 Wireshark 截取的屏幕截图。不过这个包好像还可以。
android - 如何从 DJI Professional 3 相机流式传输实时视频?
我必须在我的 C++ 应用程序中从 DJI Phantom 3 相机获取实时流视频,以便在 OpenCV 中进行计算机视觉处理。
首先,我尝试在此回调中通过 UDP 套接字发送 H264 原始数据:
上面的沟通效果很好。但是,我无法在我的 C++ 桌面应用程序中解码该 UDP H264 数据。我已经使用 FFmpeg lib 进行了测试,但无法AVPacket
使用我的 UDP 数据分配 an ,以便使用avcodec_send_packet
and进行解码avcodec_receive_frame
。我也遇到了问题AVCodecContext
,因为我的 UDP 通信不是像 RTSP 这样的流,它可以获取有关其来源的信息。因此,我不得不改变我试图解决问题的方式。
然后,我找到了 libstreaming,其中可以关联将 android 摄像机流式传输到Wowza Server,创建类似于 RTSP 流连接的东西,可以使用 OpenCV 在我的最终 C++ 应用程序中轻松获取数据videoCapture
。但是,libstreaming 使用自己的surfaceView
. 换句话说,我必须将 libstreamingsurfaceView
与 DJI Drone 的videoSurface
. 我对Android真的很陌生,所以不知道如何做到这一点。
总而言之,这是正确的方法吗?有人有更好的主意吗?提前致谢
java - 如何在libstreaming android中流式传输除相机之外的视频
我正在寻找通过 RTSP 从我的 android 手机流式传输媒体。我查看了 libstreaming 库,但那只是流式传输相机。有谁知道如何从表面视图或类似视图中流式传输媒体?
谢谢
android - 从 libstreaming 播放 rtsp 流
我正在尝试使用 libstreaming api 接收在 android 应用程序中创建的 rtsp 流。它以 h264 和 aac 编码。我尝试使用提供的代码在 VLC 播放器和另一个 android 设备上观看它,但它似乎不起作用。
日志猫:
代码:
android - Libstream 将源从相机更改为屏幕,一切都需要捕获和传输
我想制作一个应用程序,它可以捕获一部安卓手机的屏幕并通过互联网传输到另一部手机我尝试使用这样的MediaRecorder API
东西
这里MediaRecorder.VideoSource.SURFACE
可以捕获我的屏幕我尝试在下一个端使用套接字流传输,但它可以播放,因为它需要首先接收完整的视频,所以为此我找到了 libstream api,它可以按RTSP/RTP
我的要求工作和工作,但它传输相机我想传输屏幕,但找不到我需要更改的位置,为此需要覆盖哪个类请指导我如何更改 libstream api 源
相机到屏幕
android - Android(libstreaming)RTSP服务器可以播放视频但没有声音
我使用 libstreaming 在 Android 上创建 RTSP 服务器。然后,我用另一部手机连接到服务器来播放直播。我希望服务器可以使用它的摄像头和麦克风录制视频然后在客户端播放。连接后,视频可以正常播放,但没有声音。
以下是我的 RTSP 服务器代码的一部分:
我搜索了这个问题,有人说我应该在SessionBuilder.java中修改目标端口。
我尝试如下修改它,但它仍然不起作用
有人知道这个问题的原因吗?
顺便说一句,我在另一部手机上使用 VLC 播放器作为客户端。我使用以下行连接到服务器
谢谢
java - 使用 mediaprojection 作为 libstreaming 的视频源
我是 android 开发的新手,我想开发一个关于(android)屏幕共享到本地网络中的多个 android 设备的应用程序。我想使用 libstreaming 库实时发送 mediaprojection 的输出。可能吗?如何用 mediaprojection 输出替换 libstreaming 的视频源?
android - libstreaming:流式传输时更改预览表面
我在准系统中调用 libstreaming ...我希望能够在不中断流式传输的情况下更改预览 surfaceView。
我在尝试切换预览表面时遇到问题。当我尝试以下操作时,我没有得到任何改变:
还尝试了一些简单但不起作用的方法:
欢迎任何关于如何做到这一点的见解。
android - 使用带有 libstreaming 的 wifi 连接相机的 RTSP
我是使用 libstreaming 的新手。
我想知道是否有一种方法可以使用 libstreaming 从已建立的 rtsp(内部 ip)中提取流,并将其与 libstreaming 一起使用以将其发送到 WOWZA 服务器。
所以,这是我的流程。
1)通过Android的wifi连接相机并获取rtsp地址
2) 将此 rtsp 地址与 libstreaming 一起使用,通过 4G 蜂窝网络将其发送到 WOWZA 服务器。找到了一种在手机内同时激活WIFI和4G的方法。
但是需要帮助才能将 libstreaming 与内部传递的 rtsp 一起使用。
Rtsp 会有
16:9 纵横比,640x360,比特率约 1640 kbps。
流在 RTP 传输上运行;视频部分采用 H.264 编码,采用 YUV 4:2:0 像素格式,30 FPS 帧速率。
主要问题是,如果通过 wifi 与相机预先建立了 rtsp 连接,我如何通过 3g/4g 蜂窝网络使用 libstreaming(或类似库)将其发送到 Wowza?我想知道是否有一个简单的方法。我需要重新打包当前流吗?
任何帮助都感激不尽。
提前致谢。
android - 流式 rtsp 服务器 (android)
我正在制作一个 android 应用程序,用于将本地视频文件流式传输到其他 android 手机。
为此,我找到了 libstreaming 库,但它旨在从照相手机流式传输视频。
如何使用此库流式传输本地视频文件?是否有任何其他库可以用来实现流式传输?
我尝试使用无头 vlc,但 android 中不存在无头 vlc。我尝试使用 gstreamer (gst-launch),但需要 MediaPlayer 来 sdp 文件。不支持ffserver..