1

使用的组件:--Ubuntu 12.04、hive(0.9.0)、hbase(0.94.3)、hadoop(0.20.2)-single-node、zookeeper-3.4.3、guava-11.0.2、hive-hbase-handler -0.9.0

教程:- https://cwiki.apache.org/confluence/display/Hive/HBaseIntegration

步骤 1) 启动 hadoop,2) 启动 hbase-master 3) 启动 hiveserver 4) 使用教程中的 --auxpath 参数启动 hive shell(所有工作都没有错误 - JobTracker,HRegionServer,HMaster,DataNode,NameNode,SecondaryNameNode,TaskTracker,HQuorumPeer ,Jps)

hbase(main):001:0> status
1 servers, 0 dead, 2.0000 average load

在我创建的蜂巢外壳上,我可以将表创建为

CREATE TABLE IF NOT EXISTS familia (id_familia INT,fk_veiculo INT,fk_cliente INT,nome STRING) ROW FORMAT delimited fields terminated by ',' STORED AS TEXTFILE;
load data local inpath '/home/trendwise/hive_data/tables_csv/familia.csv' overwrite into table familia;

但是当我在下面进行查询时,没有显示,只是光标闪烁。我等了很长时间,然后显示错误

CREATE TABLE hbase_familia_1 (key int, id_familia int, fk_veiculo INT,fk_cliente INT,nome STRING)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES("hbase.columns.mapping" = ":key, cf1:id_familia, cf2:fk_veiculo,cf3:fk_cliente, cf4:nome")
TBLPROPERTIES ("hbase.table.name" = "hbase_familia");

list在 hbase shell 上做了,它没有显示我试过的任何表?

错误:-

FAILED: Error in metadata: MetaException(message:org.apache.hadoop.hbase.MasterNotRunningException: Retried 10 times
at org.apache.hadoop.hbase.client.HBaseAdmin.<init>(HBaseAdmin.java:127)
at org.apache.hadoop.hive.hbase.HBaseStorageHandler.getHBaseAdmin(HBaseStorageHandler.java:73)
at org.apache.hadoop.hive.hbase.HBaseStorageHandler.preCreateTable(HBaseStorageHandler.java:147)
at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:398)
at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:538)
at org.apache.hadoop.hive.ql.exec.DDLTask.createTable(DDLTask.java:3305)
at org.apache.hadoop.hive.ql.exec.DDLTask.execute(DDLTask.java:242)
at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:134)
at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57)
at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1326)
at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1118)
at org.apache.hadoop.hive.ql.Driver.run(Driver.java:951)
at org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:258)
at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:215)
at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:406)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:689)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:557)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.util.RunJar.main(RunJar.java:156)
) FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

hbase-site.xml

<property>
 <name>hbase.rootdir</name>
 <value>hdfs://localhost:54310/hbase</value>
</property>
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>
<property>
 <name>hbase.zookeeper.property.dataDir</name>
 <value>/home/trendwise/hadoop/hbase-0.94.3/hbase_dataDir</value>
</property>
<property>
 <name>hbase.zookeeper.property.clientPort</name>
 <value>2222</value>
 <description>Property from ZooKeeper's config zoo.cfg.
 </description>
</property>
<property>
 <name>hbase.zookeeper.quorum</name>
 <value>localhost</value>
 <description></description>
</property>
<property>
 <name>hbase.cluster.distributed</name>
 <value>true</value>
 <description></description>
</property>
4

3 回答 3

0

Hbase 无法启动其所有守护进程...所以您可能会在 hbase 日志中找到线索...看看您是否可以在 hbase 日志中找到任何内容并报告该错误...希望这有效...

于 2013-02-05T08:59:56.390 回答
0

将 /etc/hosts 文件中包含“127.0.1.1”的行更改为“127.0.0.1”并重新启动所有内容。此外,将 hbase-site.xml 复制到 HIVE_HOME/conf 目录中。

于 2013-01-08T19:02:57.633 回答
0

似乎 Hive 无法找到所需的 jar 文件

尝试使用所有命令执行命令

hive –auxpath /path-to-/hive-examples.jar;其他 jar 文件也用分号分隔

然后尝试将 hbase conf 文件放在 hive conf 目录中。

并在 hive-site.xml 或 hive-env.sh 中定义辅助路径并尝试

这些错误主要是由于 hive 无法连接到 hadoop 或 hbase。

并检查所有守护进程是否正在运行 hbase,您可以在 hbase shell 上执行所有操作。

于 2014-02-13T05:10:51.953 回答