我需要一个带有“主题”的数据库表,所以我下载了维基百科的 sql 类别文件(http://dumps.wikimedia.org/enwiki/latest/上的 enwiki-latest-category.sql.gz )
该文件为 74MB(解压缩),但 mysql 限制为 32MB。如何导入此文件?
顺便说一句:我试过 bigdump (http://www.ozerov.de/bigdump/) 但它似乎也有 32MB 的导入限制。
我需要一个带有“主题”的数据库表,所以我下载了维基百科的 sql 类别文件(http://dumps.wikimedia.org/enwiki/latest/上的 enwiki-latest-category.sql.gz )
该文件为 74MB(解压缩),但 mysql 限制为 32MB。如何导入此文件?
顺便说一句:我试过 bigdump (http://www.ozerov.de/bigdump/) 但它似乎也有 32MB 的导入限制。
您可以将其拆分为 32MB 并单独导入。它不应该太耗时。
如果你在你的 Windows 桌面上安装了 mysql,我有一些你可能想尝试的疯狂的东西。
请在您本地的 mysql 盒子上执行以下步骤
STEP 01) 解压文件 enwiki-latest-category.sql.gz 到 enwiki-latest-category.sql
步骤 02)CREATE DATABASE mycat;
STEP 03) `mysql -u... -p... -Dmycat < enwiki-latest-category.sql
STEP 04) 为类别导出 CREATE TABLE
mysqldump -u... -p... --no-data mycat category > category_00.sql
STEP 05) 将数据转储为 10 个部分。由于 AUTO_INCREMENT 为 134526529,因此将其四舍五入为 135000000(1.35 亿)。一次转储 20%(2700 万)
只需使用针对的--where
选项运行 5 个 mysqldumpscat_id
mysqldump -u... -p... --no-create-info mycat category --where="cat_id <= 27000000" | gzip > category_01.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id > 27000000 AND cat_id <= 54000000" | gzip > category_02.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id > 54000000 AND cat_id <= 81000000" | gzip > category_03.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id > 81000000 AND cat_id <= 108000000" | gzip > category_04.sql.gz
mysqldump -u... -p... --no-create-info mycat category --where="cat_id > 108000000" | gzip > category_05.sql.gz
上传这6个文件,解压,依次加载。
试试看 !!!