我正在尝试创建一个 Wikipedia DB 副本(大约 50GB),但是最大的 SQL 文件有问题。
我使用 linux split 实用程序将大小为 GB 的文件拆分为 300 MB 的块。例如
split -d -l 50 ../enwiki-20070908-page page.input.
在我的服务器上,平均 300MB 文件需要 3 个小时。我有 ubuntu 12.04 服务器操作系统和 Mysql 5.5 服务器。
我正在尝试如下:
mysql -u username -ppassword database < category.sql
注意:这些文件由插入语句组成,它们不是 CSV 文件。
Wikipedia 提供数据库转储供下载,因此每个人都可以创建 Wikipedia 的副本。您可以在此处找到示例文件: Wikipedia Dumps
我认为由于我的 MySQL 服务器的设置,导入速度很慢,但我不知道应该更改什么。我在具有不错处理器和 2GB RAM 的机器上使用标准的 Ubuntu MySQL 配置。有人可以帮助我为我的系统配置合适的配置吗?
我尝试将 innodb_buffer_pool_size 设置为 1GB,但没有白费。