问题标签 [live555]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - 尝试在 Visual Studio 9.0 中编译 live555 视频流平台代码时出现错误
我正在尝试使用 Microsoft Visual Studio 9.0 在我的系统上编译视频流 live555 平台代码。该代码可在此链接中找到: http ://www.live555.com/liveMedia/public/
genWindowsMakefiles
我已经使用此处提供的脚本生成了此代码的 makefile 。我遇到的问题是在运行我创建的批处理文件(run.bat)时。在这个阶段,我收到以下错误:
NMAKE:致命错误 U1073:不知道如何制作 '../groupsock/libgroupsock.lib'
表示此目录中不存在 libgroupsock.lib 目标文件库。该目标文件库也不存在于源代码中。我该如何解决这种情况?
c++ - live555异步rtsp客户端
是否有人设法让 live555 rtsp 客户端异步工作并希望分享知识或更好的......代码。
c++ - C++ - 带有 Qt GUI 的 RTSP 客户端使用 live555 lib 我还需要什么?
我希望能够使用我在 Qt 中执行的应用程序观看视频流,我首先检查了 vlc,但它的 GPL,而且我不需要它的所有选项,然后我看到它使用的是 LGPL 的 live555 流,我的问题我可以在 mt Qt 应用程序中使用这个库吗?如何
iphone - 如何为iphone应用开发配置live555框架?
我有 live555 框架。如何在 Xcode 中使用它?
android - 安卓上的 Live555
我正在尝试使用内置的 Videoview/MediaPlayer 在我的 Android 应用程序中播放 RTSP 视频流,但是在不同的 ROM 或不同的网络状态(UDP 数据包被阻止)上总是存在各种问题,这真的很烦人,所以我想要用 live555 源和 GLES 和 ffmpeg 实现我自己的 rtsp 客户端。我可以弄清楚如何使用 ffmpeg 和 GLES 显示视频,但我对 live555 不熟悉。
Android上有live555的编译版本吗?或者我自己怎么能这样做?
谢谢。
android - 使用ffmpeg对从live555读取的视频流进行解码
我正在尝试使用 live555 + ffmpeg + GLES 在 Android 上实现我自己的 RTSP 客户端,现在我已经编译了 live555 并且可以通过 TCP 读取 RTSP,我可以从 Wireshark 的捕获文件中看到。我曾经使用 ffmpeg 读取和解码 mms 音频流并了解一些 ffmpeg 开发。
我的问题是如何使用 ffmpeg 读取从 live555 获得的流。我不熟悉live555。
有什么建议吗?提前致谢。
博尔顿
c++ - 在 VS2005 中构建 Live555 媒体服务器的问题
对于任何长期使用 C++、Visual Studio 或 live555 的用户来说,这可能是一个非常愚蠢的问题,但我在使用 Visual Studio 2005 构建 live555 源代码时遇到了问题。我找到了一个很好的手动创建项目的指南,因为 .mak 文件新版本的 Visual Studio 不再支持,但仍然有问题。似乎 Visual Studio 无法打开包含文件夹中的 .hh 文件,我已将其添加到每个单独项目的头文件夹中。
您是否需要对 IDE 的编译器或插件做一些特别的事情以允许 VS2005 打开 .hh 头文件?
这是我得到的错误:
致命错误 C1083:无法打开包含文件“BasicUsageEnvironment.hh”:没有这样的文件或目录。
c++ - MJPEG 流和解码
我想从 IP 摄像机(通过 RTSP)接收 JPEG 图像。为此,我cvCreateFileCapture_FFMPEG
在 OpenCV 中进行了尝试。但是ffmpeg似乎对流媒体的MJPEG格式有一些问题(因为它会自动尝试检测流媒体信息),我最终得到以下错误
然后,我决定使用 live555 进行流式传输。到目前为止,我可以通过 openRTSP 成功建立流式传输和捕获(非解码)图像。
问题是如何在我的应用程序中执行此操作,例如在 OpenCV 中。如何在 OpenCV 中使用 openRTSP 获取图像并将其保存为 JPEG 格式?
我听说来自 openRTSP 的数据可以发送到缓冲区(或命名管道),然后在 OpenCV 的IplImage
. 但我不知道该怎么做。
我将非常感谢有关此问题的任何帮助/建议。我需要以下任一问题的答案:
- 如何禁用ffmpeg的自动流信息检测并指定我自己的格式(mjpeg),或者
- 如何在 OpenCV 中使用 openRTSP?
问候,
streaming - 使用 Live555 流式传输多个文件
Live555 lib 有一个很好的例子testOnDemandRTSPServer.cpp这个例子只是流“一个”给定的文件。我想流式传输多个文件。Live555 是否有播放列表概念或如何在 Live555 中流式传输多个文件?
最良好的祝愿
PS:我尝试添加多个子会话,在这种情况下 Live555 只是流式传输最后一个会话文件......
c++ - 编译 testOnDemandRTSPServer.cpp 时出错(来自 Live555 库)
我试图弄清楚如何从 live555 媒体服务器源的 testProgs 目录中编译testOnDemandRTSPServer.cpp 。我正在使用 Ubuntu 11.04 并安装了liblivemedia-dev库。
我已将标头包含(在testOnDemandRTSPServer.cpp内)修改为:
并使用此命令进行编译:
然后导致错误:
在这一点上,我想到了甜蜜的交易,这只是头文件之间的重定向问题。然后我修改/usr/include/liveMedia/FramedSource.hh以使用#include <groupsock/NetCommon.h>
而不是#include "NetCommon.h"
- 因为 NetCommon.h 位于 /usr/include/groupsock/
这很有效,直到我发现一百万个其他重定向问题,例如:
/usr/include/liveMedia/Media.hh:29:22: fatal error: Boolean.hh: No such file or directory
/usr/include/liveMedia/Media.hh:33:31: fatal error: UsageEnvironment.hh: No such file or directory
- ETC...
那么,我是否首先正确链接到 live555 库,还是必须根据需要不断更改标头位置?
更新
所以我继续使用上述方法更改标题位置,但现在我得到一百万个未定义的引用错误......如图所示(对不起,这里发布太多)
现在我摸不着头脑,因为原始 testOnDemandRTSPServer.cpp 编译没有问题(使用 configure/make 方法);我唯一改变的是在哪里寻找头文件。