0

我正在尝试使用 LoadIncrementalHFiles (这样我不需要在导入之前创建表)来导入导出的文件。

hbase org.apache.hadoop.hbase.mapreduce.Export t2 /user/backup6/test2

hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles   /user/backup6/test2 tb2

当我尝试加载它时出现以下错误

13/03/06 23:18:46 WARN mapreduce.LoadIncrementalHFiles: Bulk load operation did not find any files to load in directory /user/backup6/test2.  Does it contain files in subdirectories that correspond to column family names?

在 hdfs 目录上,我可以看到导出步骤创建的 3 个文件夹 _SUCESS、_logs/history、part-m-0000 文件。

当我尝试使用org.apache.hadoop.hbase.mapreduce.Import时,它抱怨新表不存在。

有没有办法在不创建新表的情况下进行导入(即仅使用导出的文件)

4

1 回答 1

1

Import 只能导入到现有表。如果表丢失,LoadIncrementalHFiles 将创建一个新表。

于 2013-03-25T22:37:24.277 回答