问题标签 [numba-pro]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Numbapro jit 计算给出不正确的结果
我有一段代码使用 Numbapro 编写一个简单的内核来对两个大小为 41724 的数组的内容进行平方,将它们加在一起并将其存储到另一个数组中。所有数组都具有相同的大小并且是 float32。代码如下:
打印操作结果(数组 c)时得到的值与在 python 终端中执行完全相同的操作时得到的值完全不同。我不知道我在这里做错了什么。
python - Cannot coerce to or from object in nopython context: Error after python
Following up from here, Numba is finally working (after weeks) on my machine, without any weird indentation errors.
I've implemented it as in the solution to the linked question.
However, I now get this string of errors from Numba, the last line being that it can't coerce to or from object in nopython context
:
What does this mean? I hope it doesn't mean I can't use objects!
Edit
I've edited all relevant code so that I'm no longer passing any objects around, and the definition now looks like this:
But I'm still getting that error, except now it's not Error:133:22
, but:
python - 删除 numba.lowering.LoweringError: Internal error
我正在使用 numba 来加速我的代码,没有 numba 可以正常工作。但是在使用@jit 之后,它会因以下错误而崩溃:
第 103 行如下,在一个循环中:
wheren
是我的代码中已经在上面某处定义的常量。
我怎样才能消除错误?正在发生什么“降价”?我在 64 位机器上使用 Anaconda 2.0.1 和 Numba 0.13.x 和 Numpy 1.8.x。
android - 在 Jetson TK1 上使用 Numbapro
我已经搜索了整个互联网,但我没有找到可靠的答案。我需要指出,我是 GPU 编程的新手,但我刚刚订购了我的 Jetson TK1 单元,因为我喜欢模拟并且我喜欢 Python。我已经在 PC 上试用了 Numpy,但我想将这些模拟带到 Android 上。我读过关于 PyCuda 和 Numba 的文章,但我更喜欢后者,因为它完全是在 python 中,我不必用 C 编写内核。我似乎不明白的是如何(在我的 Jetson TK1 上安装 numbapro ) 我将能够将我的代码指向 Tegra K1 SOC 的多核 ARM CPU,以及我将如何使用 CUDA 6 中可用的统一内存。请注意,Numba 还不支持 ARM LLVM。或者我是否需要启动强制性 C++ 和 CUDA C++ 类才能访问 CPU 内核/线程。
python - Autojit - 如何提高旋转性能
我有以下代码:
我正在测试它,我得到了1.7300620079
几秒钟。但是,当我使用@autojit
装饰器时,情况会变得更糟。
1.92721390724
几秒钟。我应该改变一些东西以获得更好的表现吗?
测试代码如下:
python - 运行 python numbapro 时出现 Cuda 资源不足错误
我正在尝试在 numbapro python 中运行 cuda 内核,但我不断收到资源不足错误。然后我尝试将内核执行到一个循环中并发送更小的数组,但这仍然给了我同样的错误。
这是我的错误信息:
这是我的源代码:
python - Numbapro cuda python在gpu的线程寄存器中定义数组
我知道如何使用np.array
或np.zeros
或np.empty(shape, dtype)
然后使用cuda.to_device
复制在主机内创建全局设备功能。
此外,可以将共享数组声明为cuda.shared.array(shape, dtype)
但是如何在 gpu 函数内的特定线程的寄存器中创建一个恒定大小的数组。
我试过了cuda.device_array
,np.array
但没有任何效果。
我只是想在一个线程中执行此操作-
python - Numbapro 停止在 gpu 上工作
我正在尝试运行以下程序:
我第一次运行它运行良好。但是后来我尝试安装 nvprof 和一些其他库,从那时起我收到以下错误:
卸载库没有帮助。
python - 使用 CUDA 时出现错误无效值
我正在尝试运行我在这里找到的示例程序:
但我收到以下回溯错误:
关于出了什么问题的任何想法?我尝试在此页面上运行“基本示例”:http: //docs.continuum.io/numbapro/CUDAufunc.html ,它运行良好,但第一个导致问题,我不知道为什么。如果有什么不同,我没有按照建议安装 Visual Studio,但我认为这不是问题所在。任何帮助是极大的赞赏..