问题标签 [live555]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - Live555 框架生成错误
我正在尝试为Live555库构建框架。我根据这个答案从这里
得到了库文件,我已经多次尝试按照那个答案生成它。它只是给出以下错误:
我用谷歌搜索了这个问题。我得到了另一个用户为此尝试的确切链接。目前我的config.iphoneos
有没有人遇到过这个问题?请给我一些想法来解决这个问题?
objective-c - iOS 中的 RTSP 流
我是新手Objective-C
。如何RTSP
在应用程序中读取流iOS
?
显然图书馆live555
和ffmpeg
能力,但我发现没有这么简单和实用。
还有其他解决方案吗?
ffmpeg - avcodec_decode_video2 在与 live555 一起使用时始终将 got_picture_ptr 设置为 0
我正在尝试使用 libavcodec 解码帧。我的应用程序使用 live555 从 rtsp 流中检索 rtp 数据包。由于 avcodec_decode_video 将 got_picture_ptr 设置为 0 的原因,我进行了很多搜索,但无法找到它。
谁能告诉我 avcodec_decode_video2 在内部是如何工作的?什么原因可能导致 got_picture_ptr 指针设置为零?PS:该函数确实读取字节,即返回值始终是正数,而不是-1。我在这里很难过,任何帮助将不胜感激。我没有引用任何代码,因为使用 avcodec_decode_video2 解码的代码相当通用,我的代码没有什么特别之处。(我之前使用 libavcodec 解码了 rtsp 流,只是没有使用 live555)
stream - 关于 RTSP over HTTP 隧道的困惑
我有一个困惑,我搜索但没有得到任何答案。
我正在使用隧道传输视频文件RTSP
,HTTP
然后当我看到wire-shark 以查看数据包源和目标以及协议时,我看到了一个UDP
协议,尽管我使用RTSP
的是HTTP
隧道传输。
谁能告诉我为什么我看不到TCP
协议而不是UDP
从源发送到目的地的数据包的协议?
visual-studio-2010 - 如何一次又一次地创建和销毁rtsp服务器 Live 555
我想从文件中进行 RTSP 流式传输,所以我使用了 live 555 库。在 live 555 测试目录中“testMpeg2TransportStreamer”程序流式传输 TS 格式文件,我所做的是,我将整个代码放在线程中,所以每当客户端请求流式传输线程开始工作,当客户端说 DONT STREAM 然后线程在关闭线程时关闭我还编写了代码 Medium::close(rtsp 服务器的指针),所以要关闭 rtsp 服务器,这适用于第一个 STREAM 和 DONT STREAM 请求,但在 DONT STREAM 请求之后,当客户端对 STREAM 说时,我调试了代码,发现它无法创建 rtsp 服务器。然后我使用了另一种方法,在第一个 STREAM 请求时只创建一次 rtsp 服务器,而不是在我的整个程序退出之前关闭它,但这也失败了。
当我收到 DONT STREAM 消息时,Sir StopRTProcess() 被调用,我错过了什么请告诉
ios - 使用 LIVE555 在 iOS 上播放 RTSP 流
如何修改 Live555 的示例“openRTSP”以在 iOS App 中显示 RTSP 流?
c++ - 使用 live555 渲染 RTSP H.264 视频流
我很欣赏使用 Live555 库将实时流呈现到屏幕的示例。显然它很简单,但看到它完成而不是简单地阅读“它很简单”真的会有所帮助!gmane网站指出:
“更新(副本)“testRTSPClient”代码以使其渲染视频数据非常简单:您只需更改“DummySink”类,以便它进行渲染(或调用解码器库进行渲染) ). 特别是,您将更改“afterGettingFrame()”函数的实现 - 在第 479 行。就是这样!
(实际上,对于 H.264 视频,您可能还需要做一件事。H.264 流具有带外配置信息(SPS 和 PPS NAL 单元),您可能需要将这些信息提供给解码器对其进行初始化。要获取此信息,请调用“MediaSubsession::fmtp_spropparametersets()”(在视频“子会话”对象上)。这将为您提供(ASCII)字符串。然后您可以将其传递给“parseSPropParameterSets() ", 为你的解码器生成二进制 NAL 单元。) "
PS:我正在使用visual studio和windows
visual-studio-2010 - 有没有人成功通过实时 555 库使用 TCP 流式传输 rtsp 数据包
有没有人成功地通过实时 555 库使用 TCP 流式传输 rtsp 数据包。?** 我尝试了很多网络搜索,但没有找到任何有用的所有解决方案提供的所有解决方案,但wireshark显示UDP数据包正在流式传输.
c++ - 我可以在流式传输/写入时同时读取 mp4 文件的早期部分吗?
我正在使用基于 Live555/openRTSP 的代码将 H.264 视频源流式传输到 mp4 文件,并希望同时读取文件的早期部分(来自不同的应用程序)。更改fopen
为fid = _fsopen(fileName, "wb", _SH_DENYWR)
(来自OutputFile.cpp)显然是不够的,因为它没有任何区别并且媒体播放器仍然不会打开它(那是mp4输出的写入行吗?)
在相关说明中,如果我模拟软件的非正常关闭(例如电源故障),则任何媒体播放器都无法读取未完成的文件。我假设文件关闭时写入文件的内容是允许媒体播放器理解文件的内容。如果可能的话,这也是我想编码的情况,并且很可能与上述问题完全相同?
收到任何指示/答案/想法:-)
video-streaming - 显示 Live555 RTSP 流
我正在为桌面(C++)开发一个 RTSP 客户端。我现在了解了库live555的操作,并且可以使用示例“testRTSPClient”接收帧。现在我想在屏幕上显示视频。如何将接收到的数据转换为图像?