我知道这个问题的一部分之前已经被问过,但我有一些相关的问题。
我正在尝试执行
mysqldump -u uname -ppassword --add-drop-database --databases databaseName | gzip > fileName
我可能会转储一个非常大的(200GB?)数据库。这本身就是一件愚蠢的事情吗?然后我想通过网络发送压缩文件进行存储,删除本地转储,并清除几个表。
无论如何,我正在使用这样的子进程,因为似乎没有办法在不考虑子进程的情况下执行整个原始调用 | 成为表名。:
from subprocess import Popen, PIPE
f = open(FILENAME, 'wb')
args = ['mysqldump', '-u', 'UNAME', '-pPASSWORD', '--add-drop-database', '--databases', 'DB']
p1 = Popen(args, stdout=PIPE)
P2 = Popen('gzip', stdin=p1.stdout, stdout=f)
p2.communicate()
但后来我读到通信将数据缓存在内存中,这对我不起作用。这是真的?
我现在最终做的是:
import gzip
subprocess.call(args, stdout=f)
f.close()
f = open(filename, 'rb')
zipFilename = filename + '.gz'
f2 = gzip.open(zipFilename, 'wb')
f2.writelines(f)
f2.close()
f.close()
当然这需要一百万年,我讨厌它。
我的问题: 1. 我可以在非常大的数据库上使用我的第一种方法吗?2. 我是否可以将 mysqldump 的输出通过管道传输到一个套接字并通过网络触发它并在它到达时保存它,而不是发送一个压缩文件?
谢谢!