我在自定义数据集上训练了 ssd mobilenet v1 现在我想在 jetson 中运行,我使用 tensorflow 对象检测 api 将其转换为冻结的图形 pb 文件,我想在 jetson nano 上运行这个模型,但我吃 2.5 GB 的 RAM,而模型大小仅为 22.3MB。我尝试了 Tensorrt FP16 转换,但内存消耗仍然相同。
我需要 5 到 6 MB 大小的模型,或者至少它必须在推理时消耗更少的内存。
我在自定义数据集上训练了 ssd mobilenet v1 现在我想在 jetson 中运行,我使用 tensorflow 对象检测 api 将其转换为冻结的图形 pb 文件,我想在 jetson nano 上运行这个模型,但我吃 2.5 GB 的 RAM,而模型大小仅为 22.3MB。我尝试了 Tensorrt FP16 转换,但内存消耗仍然相同。
我需要 5 到 6 MB 大小的模型,或者至少它必须在推理时消耗更少的内存。