我有一个需要导入的巨大 mysql 转储,我设法通过表插入拆分了 3gig 文件,其中一个表插入是 600MB,我想将它拆分为 100MB 的文件。所以我的问题是:是否有脚本或简单的方法可以将 600MB INSERT 语句拆分为多个 100MB 插入,而无需打开文件(因为这会杀死我的电脑)。
我试过 SQLDumpSplitter 但这没有帮助。
这就是我不能只运行 600MB 文件的原因:
请帮忙
我有一个需要导入的巨大 mysql 转储,我设法通过表插入拆分了 3gig 文件,其中一个表插入是 600MB,我想将它拆分为 100MB 的文件。所以我的问题是:是否有脚本或简单的方法可以将 600MB INSERT 语句拆分为多个 100MB 插入,而无需打开文件(因为这会杀死我的电脑)。
我试过 SQLDumpSplitter 但这没有帮助。
这就是我不能只运行 600MB 文件的原因:
请帮忙
在 Linux 上,拆分文件的最简单方法是split -l N
- 将每行拆分为几N
行。
在 Windows 上,我对HxD非常幸运——它适用于大文件。
您可以在 Textpad 软件上轻松打开 1GB 的文件。使用此软件打开文件并根据需要拆分查询。
下载 TextPad 软件TextPad的链接