0

我的问题很简单;我找不到可以回答它的资源。有点类似的链接使用 asarray一般来说这里是最简洁的一个

如何“计算”将 numpy 数组加载到 RAM 中的开销(如果有任何开销)?或者,如何确定将所有数组保存在内存中所需的最少 RAM 量(无需耗时的反复试验)?

简而言之,我有几个 shape 的 numpy 数组(x, 1323000, 1),其中 x 高达6000. 这导致最大文件的磁盘使用量为 30GB。

所有文件一起需要50GB。因此,如果我使用略多于50GB 的 RAM(使用 Kubernetes)就足够了吗?我想尽可能高效地使用 RAM,所以100不能只使用 GB。

4

0 回答 0