我以 JSON 的形式从我的数据库中导出了一些数据,它本质上只是一个 [列表],其中包含一堆 (900K) {objects}。
现在尝试在我的生产服务器上导入它,但我有一些便宜的网络服务器。他们不喜欢我 10 分钟吃掉他们所有的资源。
我怎样才能把这个文件分成更小的块,以便我可以一块一块地导入它?
编辑:实际上,它是一个 PostgreSQL 数据库。我愿意接受有关如何分块导出所有数据的其他建议。我的服务器上安装了 phpPgAdmin,据说它可以接受 CSV、Tabbed 和 XML 格式。
我不得不修复 phihag 的脚本:
import json
with open('fixtures/PostalCodes.json','r') as infile:
o = json.load(infile)
chunkSize = 50000
for i in xrange(0, len(o), chunkSize):
with open('fixtures/postalcodes_' + ('%02d' % (i//chunkSize)) + '.json','w') as outfile:
json.dump(o[i:i+chunkSize], outfile)
倾倒:
pg_dump -U username -t table database > filename
恢复:
psql -U username < filename
(我不知道 pg_restore 到底做了什么,但它给了我错误)
这方面的教程很方便地将这些信息排除在外,尤其是。-U
在大多数情况下可能需要的选项。是的,手册页解释了这一点,但筛选 50 个您不关心的选项总是很痛苦。
我最终接受了肯尼的建议……尽管这仍然是一个很大的痛苦。我不得不将表转储到一个文件中,压缩它,上传它,提取它,然后我尝试导入它,但是生产中的数据略有不同,并且缺少一些外键(邮政编码附加到城市)。当然,我不能只导入新城市,因为这样会引发重复键错误,而不是默默地忽略它,这会很好。所以我不得不清空那张桌子,对城市重复这个过程,却发现有别的东西与城市联系在一起,所以我也不得不清空那张桌子。重新获得城市,然后我终于可以导入我的邮政编码。到现在为止,我已经删除了一半的数据库,因为一切都与一切相关,我不得不重新创建所有条目。迷人的。还好我没有 t 启动该网站。此外,“清空”或截断表似乎不会重置我想要的序列/自动增量,因为我希望有几个魔法条目 ID 为 1。所以..我必须删除或重置那些也是(我不知道如何),所以我手动编辑了那些回到 1 的 PK。
使用 phihag 的解决方案我会遇到类似的问题,而且我必须一次导入 17 个文件,除非我编写了另一个导入脚本来匹配导出脚本。虽然他确实从字面上回答了我的问题,所以谢谢。