问题标签 [tvm]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
386 浏览

python - TVM库中relay.build_module.build()后图和库参数的差异

在 TVM 库中,当使用 时,之后和_relay.build_module.build()_之后的输出结果是什么relay.buildtvm.build

两个参数作为输出 - 图形和库 - 稍后用于运行图形或创建图形运行时有什么区别和需要?

例如在这段代码中:

什么是输出lib?我们可以只使用其中一个来生成图形运行时,还是我们总是必须同时使用它们,如下所示:

0 投票
0 回答
317 浏览

python - 在 Ubuntu 上导入 TVM 后导入 readline segfaults

我正在使用深度学习编译器TVM 。在我的工作流程中,能够使用import pdb; pdb.set_trace()并放入调试器是很有用的。但是,pdb.set_trace()在导入 TVM 后的任何时候都会导致段错误。

我当前的设置是 - Ubuntu 16.04(在适用于 Linux 的 Windows 子系统上运行,但这也发生在我的本机 16.04 机器上!) - Python 3.6

在 Windows 或 Mac 上不会出现此问题。

此问题仅在从命令行(即python3 minimum-reproducible-example.py)运行脚本时出现,从python3repl 运行时不会出现。

我用gdb做了一些调试,并缩小了范围:readline导入包时出现错误。

最小可重现示例:

使用 gdb 调试后,我将其跟踪到 cpython 中的特定行:

在这种情况下,mis 0x0,函数似乎没有预料到。

如果有人甚至可以向我指出更有用的调试方法,那将很有帮助!

0 投票
1 回答
232 浏览

fpga - 从哪里开始使用 TVM-VTA“多功能张量加速器”

我对使用 pynq 板的 TVM-Vta 使用非常陌生,我的团队正在开展一个项目,我们正在使用 pynq z2 板,所以如果有人可以帮助我从 vta 开始,因为 tvm 网站上的教程是对我有点失望,否则我可能会缺少一些知识,所以如果有人能告诉我要学习什么(编程语言、参考资料、概念等),将不胜感激提前谢谢

0 投票
0 回答
248 浏览

python - MobilenetV3 Top 5 准确性问题

我使用来自该站点的预训练模型:https ://github.com/tensorflow/models/tree/master/research/slim/nets/mobilenet 我下载的 v3-large_224_1.0_float.pb 模型链接是(Large dm=1 (漂浮) )。在我运行它之后,我经常得到这个结果,[

] 1 然后,我改变输入图像,但结果是一样的。我知道如何解决这个问题。谢谢。我的代码如下:

0 投票
0 回答
311 浏览

makefile - 如何修复构建 CXX 对象 CMakeFiles/tvm_objs.dir/src/target/llvm/codegen_llvm.cc.o 时发生的错误?

我已经按照这些说明从源代码构建了 LLVM ,现在我正在尝试根据这个官方网站中的说明从源代码构建 TVM

我执行 cmake3 -DCMAKE_C_COMPILER=gcc -DCMAKE_CXX_COMPILER=g++ .. 命令并获得以下输出

但是当我运行 make -j24 时,我得到以下输出:

我该如何解决?

0 投票
0 回答
425 浏览

python - 澄清 PyTorch 上的 TorchScripts 和 JIT

只是想澄清我对 JIT 和 TorchScripts 工作方式的理解并澄清一个特定的例子。

因此,如果我没有错torch.jit.script,将我的方法或模块转换为 TorchScript。我可以在 python 之外的环境中使用我的 TorchScript 编译模块,但也可以在 python 中使用它并进行预期的改进和优化。一个类似的情况torch.jit.trace是跟踪权重和操作,但大致遵循类似的想法。

如果是这种情况,TorchScripted 模块通常应该至少与 python 解释器的典型推理时间一样快。在进行了一些实验后,我观察到它通常比典型的解释器推理时间要慢,并且在阅读后发现显然 TorchScripted 模块需要“预热”一下,以实现其最佳性能。这样做时,我看到推理时间没有任何变化,它变得更好但不足以称为对典型的做事方式(python解释器)的改进。此外,我使用了一个名为 的第三方库torch_tvm,如果启用该库,据说可以将任何方式的 jit-ing 模块的推理时间减半。

直到现在这一切都没有发生,我真的无法说出原因。

以下是我的示例代码,以防我做错了什么 -

以下是上述代码在我的 CPU 上的结果 -

对此的任何帮助或澄清将不胜感激!

0 投票
0 回答
117 浏览

pytorch - TVM 无法在 dense_strategy_cpu 中编译 pytorch 模型

我制作并训练了一个预测 sin() 值的 pytorch v1.4 模型(基于网上找到的示例)。推理有效。然后我尝试在带有 x86 cpu 的 Ubuntu 上使用 TVM v0.8dev0 和 llvm 10 编译它。我按照 TVM 设置指南运行了一些适用于 onnx 的教程。我主要使用 TVM 上现有的教程来弄清楚下面的过程。请注意,我不是 ML 也不是 DataScience 工程师。这些是我的步骤:

最后一行给了我这个错误,我不知道如何解决也不知道哪里出错了。我希望有人能指出我的错误......

0 投票
1 回答
854 浏览

deep-learning - TVM 与 MLIR 有何不同?

据我了解,TVM 和 MLIR 都用作深度学习神经网络的编译器基础设施。我的理解正确吗?

如果我们正在为运行深度学习推理的定制硬件构建编译器,哪个会更好?

0 投票
1 回答
56 浏览

python - 在 TVM Docker 容器中找不到 libtvm.so 和 libtvm_runtime.so

我是 Apache TVM 的新手。

我尝试构建并启动一个命名tvm.ci_cpu:latest为教程https://tvm.apache.org/docs/install/docker.html#docker-source中描述的 docker 镜像。

我尝试按照教程https://tvm.apache.org/docs/tutorial/tvmc_command_line_driver.html#using-tvmctvmc中所述在 docker 容器中使用 python 应用程序。

然后我收到以下错误:

我尝试使用上面文章中提到的其他方法,但出现以下新错误:

我尝试拉取并使用以下第三方 docker 镜像,而不是我自己构建的镜像:

但是,我仍然遇到与以前相同的问题。

WHY? I had no idea at all.

Any suggestion? Thanks.

0 投票
1 回答
25 浏览

python - 如何在 pytorch 脚本模型中获取操作员的输入大小?

我使用此代码将模型转换为脚本模型:

scripted_model = torch.jit.trace(detector.model, images).eval()

然后我打印 scripted_model。部分输出如下:

我只想获取运算符的输入大小,例如运算符的输入数(0): Conv2d(original_name=Conv2d)。我打印了这个脚本模型的图形,输出如下:

我什至可以找到运营商的名字。如何获取脚本模型中特定运算符的输入大小?