我知道这可能是一个相对笼统的问题,但我想看看我如何才能指出正确的方向......
我正在尝试使用 AWS Rekognition 构建一个实时人脸识别应用程序。我对 API 非常满意,并且使用上传到 S3 的静态图像来执行面部识别。但是,我正在尝试找到一种将实时数据流式传输到 Rekognition 的方法。在阅读了亚马逊提供的各种文章和文档后,我找到了这个过程,但似乎无法克服一个障碍。
根据文档,我可以使用 Kinesis 来完成此操作。看起来很简单:创建一个 Kinesis 视频流,并通过 Rekognition 处理该流。生产者将流数据生成到 Kinesis 流中,我很高兴。
我的问题是制片人。我发现 AWS 有一个可用的 Java Producer 库(https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/producer-sdk-javaapi.html)。太好了...看起来很简单,但现在我如何使用该生产者从我的网络摄像头捕获流,并将字节发送到 Kinesis?AWS 提供的示例代码实际上使用了目录中的静态图像,没有任何代码可以将其与网络摄像头等实际实时源集成。
理想情况下,我可以将我的相机加载为输入源并开始流式传输。但我似乎找不到任何有关如何执行此操作的文档。
任何帮助或指导将不胜感激。