问题标签 [tesla]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 将 Tesla K80 用作具有 24 GB VRAM 的单 GPU
我将 Tesla K80 用于 tensorflow 的深度学习目的,它的工作原理与预期一样。但是,我想知道是否可以将 Tesla K80 用作具有 24 GB VRAM 统一内存的单个 GPU,而不是默认情况下具有 12 GB VRAM 离散内存的两个“独立”GPU?
我认为这应该是可能的,因为例如,在 Blender 中就存在这样做的选项。我的用例是在 tensorflow 中为深度神经网络的学习过程执行此操作。我已经做了一些研究,找不到任何建议。
那可能吗?如果是这样,人们将如何实现这一目标?
python - Bleak(python)在连接时没有响应
我找到了要连接的设备的正确蓝牙地址。当我运行下面的代码时,它会打印“连接到设备...”,但随后挂起并且从不打印“已连接”或完成运行。没有错误被抛出。
这个问题与我的 PC 软件/驱动程序有关吗?我在一台运行 Windows 11 的联想笔记本电脑上。
或者,某些设备不会响应简单的“连接请求”吗?我要连接的设备是特斯拉 Model 3,我知道我应该发送一组特定的数据进行身份验证。如果是这种情况,我如何在不BleakClient
以这种方式连接的情况下发送数据?
更新:我应该提到扫描/发现设备通过 Bleak 工作得很好。而且,我尝试通过 Bleak 连接到其他设备,并发生了同样的问题。不过,通过 Windows 设置应用程序的蓝牙工作正常。
cuda - CUDA 统一内存页面在 CPU 中访问但未从 GPU 中逐出
我试图了解 CUDA 统一内存的功能。我已经阅读了针对初学者的关于 CUDA 统一内存的博客。我写了下面给出的代码:
输出:
我在提供 16 GB Tesla P100 PCIe GPU 的 Kaggle 上运行代码。x
我有一个使用分配的整数数组cudaMallocManaged()
。首先,我在 GPU 中预取数组并对其进行一些处理,然后将其预取到 CPU 并进行一些处理。在这两者之间,我打印了内存传输前后 GPU 上可用的空闲内存。基于此,我有两个问题:
在空闲内存减少后
cudaMallocManaged()
的第一次预取期间,比我分配的要多得多。为什么?预取到 CPU 前后的空闲内存是一样的。此外,当我访问和修改 CPU 上的数组时,GPU 上的可用内存在此之前和之后仍然保持不变。我不明白为什么会这样。在预取/处理 CPU 上的统一内存位置时,GPU 上的相应页面不应该被驱逐并移动到 CPU,这不应该释放 GPU 内存吗?
python - 如何确定给定的 P(x,y) 点是否位于数组的边界内?以下是我的尝试,我无法打印出准确的密钥
如果该点在零件边界内,则算法应返回零件编号。否则,算法应该返回 0。