我的问题很简单;我找不到可以回答它的资源。有点类似的链接使用 asarray,一般来说,这里是最简洁的一个。
如何“计算”将 numpy 数组加载到 RAM 中的开销(如果有任何开销)?或者,如何确定将所有数组保存在内存中所需的最少 RAM 量(无需耗时的反复试验)?
简而言之,我有几个 shape 的 numpy 数组(x, 1323000, 1)
,其中 x 高达6000
. 这导致最大文件的磁盘使用量为 30GB。
所有文件一起需要50
GB。因此,如果我使用略多于50
GB 的 RAM(使用 Kubernetes)就足够了吗?我想尽可能高效地使用 RAM,所以100
不能只使用 GB。