我正在使用 python 库进行深度学习和神经网络。我正在运行的计算机有 16 GB 的 ram@1866 MHz。起初我的输入数据文件太大,所以我把它弄小了:
-rw-rw-r-- 1 jt jt 1.8G Mar 20 18:09 covarFile.pkl
引起:
Traceback (most recent call last):
File "PYJT2/pp_dbn.py", line 69, in <module>
go()
File "PYJT2/pp_dbn.py", line 32, in go
model = cPickle.load(open(CONTROL_DBN.INPUT, "rb"))
MemoryError
由于该文件只是一个 numpy 数组的 numpy 数组,因此我可以将其分解为单独的文件,并通过加载大量 pickle 文件在程序中动态重新创建较大的文件。
total 5.2G
drwxrwxr-x 2 jt jt 4.0K Mar 20 18:15 ./
drwxrwxr-x 4 jt jt 4.0K Mar 20 18:15 ../
-rw-rw-r-- 1 jt jt 351M Mar 20 18:09 outfile-0.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:11 outfile-10.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:11 outfile-11.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:12 outfile-12.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:12 outfile-13.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:12 outfile-14.pkl
-rw-rw-r-- 1 jt jt 2.3M Mar 20 18:12 outfile-15.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:09 outfile-1.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:09 outfile-2.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:10 outfile-3.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:10 outfile-4.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:10 outfile-5.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:10 outfile-6.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:11 outfile-7.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:11 outfile-8.pkl
-rw-rw-r-- 1 jt jt 351M Mar 20 18:11 outfile-9.pkl
这个解决方案效果很好。我的问题是,现在我有一个巨大的文件,导致MemoryError
我不知道如何进一步分解。它是一个 theano 张量变量,表示 30,000x30,000 浮点数矩阵。我的问题:
- 即使您不确定如何划分底层数据结构,是否有一种方法可以跨多个 pkl 文件保存内容?
- 在我们的实验室服务器(48 GB)上运行它会更好吗?还是这个内存错误与架构无关?
- 我现在拥有的巨大的 pkl 文件是否太大而无法使用?我希望不是,那是大约 8 个小时的神经网络训练。
- 除了使用任何人都能想到的数据库之外,还有其他解决方案吗?如果可能的话,我强烈希望不使用数据库,因为我已经不得不将软件转移到许多服务器上,其中许多我没有 root 访问权限,并且安装其他东西很痛苦。