1

我是 Jetson tegra x2 板的新手。

我计划在 TX2 板上运行我的 tensorflow-gpu 模型,看看它们在那里的表现如何。这些模型在 GTX GPU 机器上进行训练和测试。

在 tx2 板上,Jetpack full 中没有 tensorflow。所以需要构建/安装 tensorflow,我已经看过几个教程并尝试过。我的 python 文件 train.py 和 test.py 需要 tensorflow-gpu。

现在我怀疑,如果在 tx2 板上构建 tensorflow-gpu 是正确的方法吗?

哦,TX2 上有 Nvidia TensorRT,它可以完成部分工作,但是怎么做呢?对吗?

tensorflow 和 tensorRT 会一起取代 tensorflow-gpu 吗?但如何?那么我必须在我的火车和测试python文件中进行哪些修改?

我真的需要为 tx2 构建 tensorflow 吗?我只需要推断我不想在那里进行培训。

我研究了不同的博客并尝试了几种选择,但现在事情有点混乱。

我的简单问题是:

使用在 GTX 机器上训练的 TensorFlow-GPU 深度学习模型在 Jetson TX2 板上完成推理的步骤是什么?

4

3 回答 3

2

最简单的方法是安装 NVIDIA 提供的滚轮:https ://docs.nvidia.com/deeplearning/dgx/install-tf-jetsontx2/index.html

JetPack 已经安装了所有依赖项。

使用轮子安装 Tensorflow 后,您可以使用它,但在其他平台上使用 Tensorflow。对于运行推理,您可以将 Tensorflow 模型下载到 TX2 内存中,然后在其上运行 Tensorflow 推理脚本。

您还可以通过 TF-TRT 传递 Tensorflow 模型来优化它们:https ://docs.nvidia.com/deeplearning/dgx/integrate-tf-trt/index.html 只有一个 API 调用可以进行优化:create_inference_graph (...) 这将优化 Tensorflow 图(主要通过融合节点),还可以让您构建较低精度的模型以获得更好的加速。

于 2018-11-24T18:36:44.957 回答
0

您可以在 Nvidia 开发者论坛的此链接中找到适用于 python 2.7 和 python 3.5 的 TX2 的 tensorflow-gpu 轮文件。

https://devtalk.nvidia.com/default/topic/1031300/jetson-tx2/tensorflow-1-8-wheel-with-jetpack-3-2-/

于 2018-12-21T09:53:24.197 回答
0

我按照本指南在 JetsonTX2 上构建了 tensorflow。它为 Python 2 和 Python3 提供了指令和轮子。

如果您是 Jetson TX2 的新手,还请查看此“使用 TensorRT 和 NVIDIA Jetson 部署深​​度学习推理网络和深度视觉原语的指南”。(*这不需要安装 tensorflow,因为 Jetpack 已经构建了 TensorRT)

如果您有经过 TensorFlow 训练的图,并且想在 Jetson 上运行推理,那么您需要首先安装 TensorFlow。之后,建议(非强制推理)使用 tensorRT 优化训练好的模型。查看这些存储库以获取使用 TensorRT 优化的对象检测/分类示例。

于 2018-11-30T13:31:31.827 回答