问题标签 [amd-rocm]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ubuntu - AMD GPU 上的 TensorFlow
我有 AMD RX 470,想用我的 GPU 运行深度神经网络。我已经检查了 ROCm,但无法理解如何运行它。我也找不到任何简单的安装说明。我是 Ubuntu 的新手,如果有人可以提供非常有用的简单说明。谢谢你
python - TensorFlow 1.3 ROCm 端口:无法打开“_pywrap_tensorflow_internal”
在 Ubuntu 16.04.4 中,我根据“安装所需的 python 包”中的说明安装了 TensorFlow 1.3 ROCm 端口(用于 AMD Radeon RX Vega 64)
我之前根据中的说明从 AMD Debian 存储库安装了 ROCm
https://github.com/RadeonOpenCompute/ROCm
然后,使用 pip 安装没有虚拟化的 TF .whl 包:
当我尝试使用验证安装时
我收到以下错误:
我验证了 _pywrap_tensorflow_internal.so 存在:
还检查了我的轮子和点子版本:
乍一看,好像没有设置某些环境变量,因此没有在正确的路径上搜索 _pywrap_tensorflow_internal.so。谁能告诉我是否是这种情况 - 或者问题的根源是否在其他地方?我做了一些搜索,结果基本上是空的。提前感谢您提供任何有用的回复。
gpu - 如何调整 ROCm(llvm) 编译器的性能?
我稍微修改了 llvm (roc-1.6.x) 以生成可以在 AMDGPU pro 驱动程序上运行的代码。对于相同的 opencl 代码,它可以运行,但性能比 AMDGPU 的在线编译器慢 10% 以上。我想知道是否可以设置一些标志来调整 llvm。如果你能给我一些例子,那就太好了。
tensorflow - ROCm 和 CUDA GPU 在一个模型上?
我想在多个 GPU 上编译模型。是否可以在同一型号上将 AMD GPU 与 ROCm 与 Nvidia CUDA GPU 一起使用?我想这是不可能的,因为您需要安装特殊版本的 tensorflow 才能启用 ROCm tensorflow?
python - TensorFlow、GPU 或代码中的错误?'无法处理内核分页请求'
我所做的
基本上执行这个 TF 图(通过sess.run(self.minimizer, feed_dict=...)
):
怎么了
有时(大约 200000 次呼叫中的 1 次)sess.run
没有返回 - 它被卡住了 - 就像......冻结了。我的 python 程序当然不会自行退出。最奇怪的是:它突然占用了大量的 RAM(比如 10 GB),除非我重新启动计算机,否则我再也无法释放了。
看看这个,这很荒谬:
/var/log/syslog
关于这个时间范围的sais:
我的规格
- 操作系统是linux
- GPU 是AMD Radeon RX Vega 64
- CPU是AMD FX-8320
- RAM 是1333 DDR-3 的 2 倍 4GB 和 2 倍 8GB
- 主板是华擎 970A-G 3.1
- Tensorflow 是我通过
pip3 install tensorflow-rocm
(版本 1.12.0)安装时得到的
在我 100% 确定这是 TF 的错误而不是我做错了什么之前,我不想在GitHub 上报告错误。
opencl - 在 AMD GPU 上启动内核时查找计算单元 ID
我正在使用 ROCm 软件堆栈在 Polaris20 GCN4th AMD GPU 上编译和运行 OpenCL 程序,并且想知道是否有办法找出当前工作项或波前正在使用 GPU 上的哪个计算单元 (id)?
换句话说,我是否可以将内核中的计算与 GPU 上的特定计算单元或特定硬件相关联,以便在内核运行时跟踪硬件的哪一部分被利用。
谢谢!
c++ - 在没有启用 CUDA 的 GPU 的情况下使用 CUDA - ROCm 或 OpenCL
我在做学术机器人研究,所以我们需要在视觉、传感、执行器领域集成几个库。
尝试使用解决问题的库以及如何将它们集成在一起时存在一个巨大的问题,因为有些使用 CUDA,其他的 ROCm,其他的 OpenCL。我的主机中没有 NVidia 硬件。
我正在开始研究如何在这方面有点独立(我愿意牺牲性能),但是有几个库可以将 CUDA 编译为可移植 C++,或将 CUDA 编译为 OpenCL,所以它似乎不应该在我看来,成为 NVidia 或 AMD 的阻碍者。
我建议记住这些库 https://github.com/hughperkins/coriander(将 CUDA 转换为 OpenCL 以在其他卡中运行) https://github.com/ROCm-Developer-Tools/HIP(将 CUDA 转换为可移植的 C++)。
你能提出替代方案吗?关于如何在未启用 NVidia 的主机上使用启用 CUDA 的库可能有更好的方法。
具体情况是在 Ubuntu 机器上运行没有 CUDA 或 Nvidia 的 PoseCNN 库(它是用 CUDA 构建的)。https://github.com/yuxng/PoseCNN
python - No OpenCL / HSA support for rx 470 / vega 8 on Ubuntu 18.04 using ROCM
I installed ROCm, ROCm-Tensorflow and PlaidML on a fresh installation of Ubuntu 18.04 using the instructions given on:
- https://rocm.github.io/ROCmInstall.html
- https://rocm.github.io/QuickStartOCL.html
- https://rocm.github.io/tensorflow.html
- https://github.com/plaidml/plaidml
While both GPUs are listed by /opt/rocm/bin/rocminfo
, they are not recognized by /opt/rocm/opencl/bin/x86_64/clinfo
or plaidml-setup
(Output below).
Importing tensorflow throws the following error:
Rocminfo lists all Devices:
#xA;CLinfo:
#xA;PlaidML:
#xA;System information:
- AMD Ryzen 2200g with vega 8 graphics (iGPU) and AMD Radeon rx470 (dGPU)
- Ubuntu 18.04.2
- Kernel 4.18.0-20-generic
- ROCm 2.4.25
- Python 3.6.7
- ROCm Tensorflow: 1.13.3
- PlaidML 0.5.0
tensorflow - 将 TensorFlow 与 rocm 一起使用
我正在使用 ROCM(Ubuntu HP envy x360 Ryzen 5 2500u)在我的 AMD(RavenRidge APU)笔记本电脑上设置基于 tensorflow 的机器学习工作区
我已经安装了 rocm 并尝试使用基本的 tensorflow 脚本,但出现 HIP 错误。这是否意味着我的 GPU 与 rocm 不兼容?