3

使用 FFMPEG、Live555、JSON

不确定它是如何工作的,但是如果您查看 http://github.com/dropcam/dropcam_for_iphone上的源文件, 您会发现它们正在使用 FFMPEG、Live555、JSON 等开源项目的组合。使用 Wireshark 嗅探从可在 App Store 上使用免费的“Dropcam For Iphone App”查看的公共摄像头发送的数据包,我能够确认 iphone 正在通过 RTP/RTSP/RTCP 甚至 RTMPT 接收 H264 视频,看起来像也许一些流是隧道的?

也许有人可以看看开源文件并解释他们如何让 RTSP 在 iphone 上工作。

4

2 回答 2

3

感谢您提供信息 TinC0ils。在深入挖掘之后,我读到他们已经使用自定义固件修改了 Axis 相机,以将流媒体限制为仅单个 320x240 H264 馈送,以更好地通过不同网络提供一致质量的视频,并且正如您所指出的,更少我的兴趣是希望使用我的 iphone 来查看我拥有的几个 IP 摄像头的实时视频和音频,而没有 MJPEG 的抖动或与“http”相关的固有延迟直播”。我认为 Dropcam 的硬件/软件组合做得非常出色,我目前不需要任何新硬件。

哦,是的,我差点忘了这篇文章的原因 RTSP 协议在 IPHONE 上有效!

于 2010-06-30T06:31:19.917 回答
0

他们正在使用开源项目来接收帧并在软件中解码,而不是使用硬件解码器。这将起作用,但是,这与 Apple 要求您使用其 HTTP Streaming 的要求背道而驰。与 HTTP 流相比,它还需要更多的 CPU 资源,这样它就无法在旧设备上以所需的 fps/分辨率解码视频和/或缩短电池寿命。

于 2010-06-30T03:07:42.233 回答