3

我需要一个带有“主题”的数据库表,所以我下载了维基百科的 sql 类别文件(http://dumps.wikimedia.org/enwiki/latest/上的 enwiki-latest-category.sql.gz )

该文件为 74MB(解压缩),但 mysql 限制为 32MB。如何导入此文件?

顺便说一句:我试过 bigdump (http://www.ozerov.de/bigdump/) 但它似乎也有 32MB 的导入限制。

4

2 回答 2

0

您可以将其拆分为 32MB 并单独导入。它不应该太耗时。

于 2012-05-21T19:39:27.840 回答
0

如果你在你的 Windows 桌面上安装了 mysql,我有一些你可能想尝试的疯狂的东西。

请在您本地的 mysql 盒子上执行以下步骤

  • STEP 01) 解压文件 enwiki-latest-category.sql.gz 到 enwiki-latest-category.sql

  • 步骤 02)CREATE DATABASE mycat;

  • STEP 03) `mysql -u... -p... -Dmycat < enwiki-latest-category.sql

  • STEP 04) 为类别导出 CREATE TABLE

    mysqldump -u... -p... --no-data mycat category > category_00.sql

  • STEP 05) 将数据转储为 10 个部分。由于 AUTO_INCREMENT 为 134526529,因此将其四舍五入为 135000000(1.35 亿)。一次转储 20%(2700 万)

只需使用针对的--where选项运行 5 个 mysqldumpscat_id

mysqldump -u... -p... --no-create-info mycat category --where="cat_id <=  27000000"                         | gzip > category_01.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id  >  27000000 AND cat_id <=  54000000" | gzip > category_02.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id  >  54000000 AND cat_id <=  81000000" | gzip > category_03.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id  >  81000000 AND cat_id <= 108000000" | gzip > category_04.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id  > 108000000"                         | gzip > category_05.sql.gz

上传这6个文件,解压,依次加载。

试试看 !!!

于 2012-05-21T20:13:10.710 回答