1

我想在 NVIDIA Jetson Nano 上运行来自 Google AutoML Vision 的导出模型。由于这很容易,我想使用预先构建的容器按照官方Edge 容器教程进行预测。

问题是存储在 Google Container Registry (gcr.io/automl-vision-ondevice/gcloud-container-1.12.0:latest) 中的预构建 CPU 容器是基于 amd64 架构的,而 NVIDIA Jetson Nano 使用的是 arm64 架构(Ubuntu 18.04)。这就是为什么 'docker run ...' 返回:

docker image error: standard_init_linux.go:211: exec user process caused “exec format error”

我能做些什么?我应该构建一个类似于与 arm64 arch 兼容的预构建容器吗?

4

1 回答 1

0

有两个想法可以帮助您实现目标:

[想法1]你可以导出*.tflite 格式的模型来做你的检测。

[想法2]将模型部署为Google AutoML Vision 上的API 服务,并使用python 或任何其他支持的语言调用它。

于 2020-06-04T11:08:12.027 回答