问题标签 [tvm]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - TVM库中relay.build_module.build()后图和库参数的差异
在 TVM 库中,当使用 时,之后和_relay.build_module.build()_
之后的输出结果是什么relay.build
tvm.build
两个参数作为输出 - 图形和库 - 稍后用于运行图形或创建图形运行时有什么区别和需要?
例如在这段代码中:
什么是输出图,lib?我们可以只使用其中一个来生成图形运行时,还是我们总是必须同时使用它们,如下所示:
python - 在 Ubuntu 上导入 TVM 后导入 readline segfaults
我正在使用深度学习编译器TVM 。在我的工作流程中,能够使用import pdb; pdb.set_trace()
并放入调试器是很有用的。但是,pdb.set_trace()
在导入 TVM 后的任何时候都会导致段错误。
我当前的设置是 - Ubuntu 16.04(在适用于 Linux 的 Windows 子系统上运行,但这也发生在我的本机 16.04 机器上!) - Python 3.6
在 Windows 或 Mac 上不会出现此问题。
此问题仅在从命令行(即python3 minimum-reproducible-example.py
)运行脚本时出现,从python3
repl 运行时不会出现。
我用gdb做了一些调试,并缩小了范围:readline
导入包时出现错误。
最小可重现示例:
使用 gdb 调试后,我将其跟踪到 cpython 中的特定行:
在这种情况下,m
is 0x0
,函数似乎没有预料到。
如果有人甚至可以向我指出更有用的调试方法,那将很有帮助!
fpga - 从哪里开始使用 TVM-VTA“多功能张量加速器”
我对使用 pynq 板的 TVM-Vta 使用非常陌生,我的团队正在开展一个项目,我们正在使用 pynq z2 板,所以如果有人可以帮助我从 vta 开始,因为 tvm 网站上的教程是对我有点失望,否则我可能会缺少一些知识,所以如果有人能告诉我要学习什么(编程语言、参考资料、概念等),将不胜感激提前谢谢
makefile - 如何修复构建 CXX 对象 CMakeFiles/tvm_objs.dir/src/target/llvm/codegen_llvm.cc.o 时发生的错误?
我已经按照这些说明从源代码构建了 LLVM ,现在我正在尝试根据这个官方网站中的说明从源代码构建 TVM
我执行 cmake3 -DCMAKE_C_COMPILER=gcc -DCMAKE_CXX_COMPILER=g++ .. 命令并获得以下输出
但是当我运行 make -j24 时,我得到以下输出:
我该如何解决?
python - 澄清 PyTorch 上的 TorchScripts 和 JIT
只是想澄清我对 JIT 和 TorchScripts 工作方式的理解并澄清一个特定的例子。
因此,如果我没有错torch.jit.script
,将我的方法或模块转换为 TorchScript。我可以在 python 之外的环境中使用我的 TorchScript 编译模块,但也可以在 python 中使用它并进行预期的改进和优化。一个类似的情况torch.jit.trace
是跟踪权重和操作,但大致遵循类似的想法。
如果是这种情况,TorchScripted 模块通常应该至少与 python 解释器的典型推理时间一样快。在进行了一些实验后,我观察到它通常比典型的解释器推理时间要慢,并且在阅读后发现显然 TorchScripted 模块需要“预热”一下,以实现其最佳性能。这样做时,我看到推理时间没有任何变化,它变得更好但不足以称为对典型的做事方式(python解释器)的改进。此外,我使用了一个名为 的第三方库torch_tvm
,如果启用该库,据说可以将任何方式的 jit-ing 模块的推理时间减半。
直到现在这一切都没有发生,我真的无法说出原因。
以下是我的示例代码,以防我做错了什么 -
以下是上述代码在我的 CPU 上的结果 -
对此的任何帮助或澄清将不胜感激!
pytorch - TVM 无法在 dense_strategy_cpu 中编译 pytorch 模型
我制作并训练了一个预测 sin() 值的 pytorch v1.4 模型(基于网上找到的示例)。推理有效。然后我尝试在带有 x86 cpu 的 Ubuntu 上使用 TVM v0.8dev0 和 llvm 10 编译它。我按照 TVM 设置指南运行了一些适用于 onnx 的教程。我主要使用 TVM 上现有的教程来弄清楚下面的过程。请注意,我不是 ML 也不是 DataScience 工程师。这些是我的步骤:
最后一行给了我这个错误,我不知道如何解决也不知道哪里出错了。我希望有人能指出我的错误......
deep-learning - TVM 与 MLIR 有何不同?
据我了解,TVM 和 MLIR 都用作深度学习神经网络的编译器基础设施。我的理解正确吗?
如果我们正在为运行深度学习推理的定制硬件构建编译器,哪个会更好?
python - 在 TVM Docker 容器中找不到 libtvm.so 和 libtvm_runtime.so
我是 Apache TVM 的新手。
我尝试构建并启动一个命名tvm.ci_cpu:latest
为教程https://tvm.apache.org/docs/install/docker.html#docker-source中描述的 docker 镜像。
我尝试按照教程https://tvm.apache.org/docs/tutorial/tvmc_command_line_driver.html#using-tvmctvmc
中所述在 docker 容器中使用 python 应用程序。
然后我收到以下错误:
我尝试使用上面文章中提到的其他方法,但出现以下新错误:
我尝试拉取并使用以下第三方 docker 镜像,而不是我自己构建的镜像:
但是,我仍然遇到与以前相同的问题。
WHY? I had no idea at all.
Any suggestion? Thanks.
python - 如何在 pytorch 脚本模型中获取操作员的输入大小?
我使用此代码将模型转换为脚本模型:
scripted_model = torch.jit.trace(detector.model, images).eval()
然后我打印 scripted_model。部分输出如下:
我只想获取运算符的输入大小,例如运算符的输入数(0): Conv2d(original_name=Conv2d)
。我打印了这个脚本模型的图形,输出如下:
我什至可以找到运营商的名字。如何获取脚本模型中特定运算符的输入大小?