问题标签 [amazon-rekognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Boto3 和 Python3:无法将“字节”对象隐式转换为 str
我正在尝试使用 AWS Rekognition、detect_text API。我正在使用 Boto3 和 Python 3。
这是我的相关代码:
此代码适用于 Python2.7,但适用于 Python3。我收到以下错误:
任何想法我需要在这里改变。
amazon-web-services - boto3 在获取 AWS Lambda 提供的区域时无法访问给定的区域名称
我有这样的博托客户
我正在使用此客户端检测图像中的文本,并在其中 Rekognition api 不可用但提供了客户端可用的区域名称的 AWS 区域中部署代码。在执行/测试 lambda 函数时,它给出
为什么它像我在 client-"us-east-1" 中提供的那样选择 ap-south-1
client = boto3.client('rekognition', region_name="us-east-1")
但是当我在本地使用 region-name:- ap-south-1 和客户端运行代码时
它运行得很好
但不在 AWS lambda 上运行
当两个区域相同时成功运行(us-east-1)
如果有人可以提供任何建议,那就太好了,很快就需要帮助!!!!!!!
amazon-web-services - 尝试访问 lambda 时出现 AWS 错误
尝试访问我的 lambda 函数时出现以下错误(发布在下面)。主要问题是我很困惑 AWS lambda 函数应该如何通过简单地给它我的本地 IP 地址(和端口)来与我的树莓派通信。我错过了什么吗?
我已经设置了到树莓派的端口转发。我还将 lambda 函数上传到 AWS。此外,我在树莓派上运行 server.js 脚本。通过语音命令访问 lambda 函数时出现通信错误。这是我的意图:
这也是我的 lambda 函数:
node.js - 尝试运行 lambda 函数时出现 DependencyFailedException
我正在尝试使用本教程制作人脸识别机器人:https ://github.com/just4give/raspi-dexter-lex-ai
我查找了以下可能出现错误的原因:DependencyFailedException 代码 424。似乎有很多原因可能会失败。
我已经在我的 pi 上转发了端口,并使用 dataplicity 使其可访问。这是我的环境变量的图片:https ://gyazo.com/47d1640c681ebb2a87a216c71817f9e9
这是我赋予 lambda 函数的权限图片: https ://gyazo.com/ca7082a8580904cf77b32e3f0ca07518
我似乎无法理解为什么会出现权限错误或超时错误,因为我还增加了函数的超时时间。
任何帮助是极大的赞赏。
谢谢, Daveyman123
aws-lambda - AWS Rekognition - 从检测人脸边界框创建图像
目前试图弄清楚如何从边界框(来自检测人脸响应)中进行人脸裁剪,并使用这些裁剪来使用 SearchFacesByImage API 搜索现有集合
SearchFacesByImage 文档中提到了这一点。
您还可以调用 DetectFaces 操作并使用响应中的边界框进行人脸裁剪,然后您可以将其传递给 SearchFacesByImage 操作
我正在尝试在 Python 或 Node.js 中的 Lambda 函数中执行此操作。输入图像是一个 s3 对象。
非常感谢所有帮助。
python-2.7 - 如何使用 Python 从此 Kinesis 分片中提取“滚动”数据?
我如何能够从使用 Python 2.7 从 Amazon Kinesis/Rekognition 获得的这个列表中提取“滚动”?
{u'FaceSearchResponse': [{u'DetectedFace': {u'BoundingBox': {u'Width': 0.10875, u'Top': 0.08555555, u'Left': 0.775, u'Height': 0.19333333}, u '信心':99.82224,u'Pose':{u'Yaw':39.53371,u'Roll':10.791267,u'Pitch':-1.0082194},u'Quality':{u'Sharpness':99.93052,u' Brightness': 44.374504}, u'Landmarks': [{u'Y': 0.17006741, u'X': 0.81887186, u'Type': u'eyeLeft'}, {u'Y': 0.18348174, u'X' : 0.8479081, u'Type': u'eyeRight'}, {u'Y': 0.21523575, u'X': 0.8444541, u'Type': u'nose'}, {u'Y': 0.2389706, u' X': 0.81935763, u'Type': u'mouthLeft'}, {u'Y': 0.2415149, u'X': 0.83268094,u'Type': u'mouthRight'}]}, u'MatchedFaces': []}], u'StreamProcessorInformation': {u'Status': u'RUNNING'}, u'InputInformation': {u'KinesisVideo' : {u'ServerTimestamp': 1521934266.557, u'FrameOffsetInSeconds': 0.035999998450279236, u'StreamArn': u'arn:aws:kinesisvideo:us-east-1:086906171606:stream/AmazonRekognitionVS/1520802835':uragmentNumber', '91343852333181789275940108114159018792280348730', u'ProducerTimestamp': 1521934266.294}}}035999998450279236, u'StreamArn': u'arn:aws:kinesisvideo:us-east-1:086906171606:stream/AmazonRekognitionVS/1520802835146', u'FragmentNumber': u'91343852333181789275940108114159018792280348730', u'ProducerTimestamp': 1521934266.294}}}035999998450279236, u'StreamArn': u'arn:aws:kinesisvideo:us-east-1:086906171606:stream/AmazonRekognitionVS/1520802835146', u'FragmentNumber': u'91343852333181789275940108114159018792280348730', u'ProducerTimestamp': 1521934266.294}}}
amazon-s3 - Amazon Rekognition API - IndexFaces 提示外部图像 ID 错误 - 当“externalImageId”中包含文件夹结构时
我正在尝试调用 IndexFaces API 但出现错误:
我能够使用 S3 的所谓“文件夹结构”将我的文件成功上传到 S3 中。但是当我试图读取 IndexFaces 的相同文件时,它会提示与 éxternalImageId 相关的错误。
这是我上传文件的 S3 的快照:
如果我摆脱文件夹结构并直接转储文件,例如:
然后 IndexFaces API 成功传递它。
当我确实有“文件夹结构”时,你能建议如何传递 externalImageId 吗?目前,我正在通过我的 java 代码传递 externalImageId,例如:
上面的代码内部调用:
java - 将网络摄像头视频流式传输到 AWS Kinesis?
我知道这可能是一个相对笼统的问题,但我想看看我如何才能指出正确的方向......
我正在尝试使用 AWS Rekognition 构建一个实时人脸识别应用程序。我对 API 非常满意,并且使用上传到 S3 的静态图像来执行面部识别。但是,我正在尝试找到一种将实时数据流式传输到 Rekognition 的方法。在阅读了亚马逊提供的各种文章和文档后,我找到了这个过程,但似乎无法克服一个障碍。
根据文档,我可以使用 Kinesis 来完成此操作。看起来很简单:创建一个 Kinesis 视频流,并通过 Rekognition 处理该流。生产者将流数据生成到 Kinesis 流中,我很高兴。
我的问题是制片人。我发现 AWS 有一个可用的 Java Producer 库(https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/producer-sdk-javaapi.html)。太好了...看起来很简单,但现在我如何使用该生产者从我的网络摄像头捕获流,并将字节发送到 Kinesis?AWS 提供的示例代码实际上使用了目录中的静态图像,没有任何代码可以将其与网络摄像头等实际实时源集成。
理想情况下,我可以将我的相机加载为输入源并开始流式传输。但我似乎找不到任何有关如何执行此操作的文档。
任何帮助或指导将不胜感激。
node.js - 当我尝试将图像传递给 AWS Rekognition 时出现 InvalidImageFormatException
当我InvalidImageFormatException
试图将图像传递给AWS Rekognition
. 我向Image URL发出 HTTP 请求,下载图像并将缓冲区传递给 aws 函数。
这是它的代码:
我不明白这个错误可能是什么原因。它适用于其他图像,但对某些图像会引发错误。这可能是什么原因?
这是跟踪:
python - 使用裁剪图像时,CompareFaces 会引发错误
我正在使用 Amazon Rekognition 比较加载到 python 内存中的图像之间的人脸,但是当我尝试传递裁剪的图像时,它会引发错误:
InvalidParameterException: An error occurred (InvalidParameterException) when calling the CompareFaces operation: Request has Invalid Parameters
正在使用的代码示例是:
最后一行抛出错误。但是,如果我提交:
没有错误,人脸匹配。有没有人知道这个错误的原因?
此错误的完整跟踪: