我有一个用 python 编写的高强度模型,数组计算涉及超过 200,000 个单元,时间步长超过 4000 个。有两种阵列,一种是细网格阵列,一种是较粗网格网格,来自细网格阵列的信息用于告知粗网格网格的特征。当程序运行时,它只使用了 1% 的 cpu,但最大限度地使用了 ram (8GB)。运行需要几天时间。开始解决这个问题的最佳方法是什么?GPU 处理是一个好主意,还是我需要找到一种方法将一些已完成的计算卸载到 HDD?
我只是想寻找解决方案的思路。我的模型是否只是将太多数据拉入内存,导致计算缓慢?