我有一个将 protobuf 写入 HDFS 的数据管道,现在我需要一种方法来查询该数据。我偶然发现了大象鸟和蜂巢,并且一直试图让这个解决方案运行一天。
以下是我采取的步骤:
1.) 安装 Hadoop 2.7.3、Hive 2.1.1 和 Protobuf 3.0.0
2.) 克隆象鸟 4.16 并构建成功
3.) 启动 hive 并添加 core、hive 和 hadoop-compat jar
4.) 为 .proto 文件生成 java 类;使用 protobuf-java-3.0.0.jar 打包并添加到 hive
5.) 将 protobuf-java-3.0.0.jar 添加到 hive
在这一切之后,我执行如下创建外部命令:
create external table tracks
row format serde
"com.twitter.elephantbird.hive.serde.ProtobufDeserializer"
with serdeproperties (
"serialization.class"="protobuf.TracksProtos$Env")
stored as
inputformat "com.twitter.elephantbird.mapred.input.DeprecatedRawMultiInputFormat"
OUTPUTFORMAT "org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat"
LOCATION '/tracks/';
我在日志中收到这条消息:
2017-10-26T17:36:30,838 ERROR [main] util.Protobufs: Error invoking method getDescriptor in class class protobuf.TracksProtos$Env
java.lang.reflect.InvocationTargetException
.....
.....
.....
Caused by: java.lang.NoSuchMethodError: com.google.protobuf.Descriptors$Descriptor.getOneofs()Ljava/util/List;
我知道这不是真的,因为我可以列出 hive 中的 jars 并查看所有已安装的,当我展开它们时,我可以看到他们认为不存在的类。
如果我在 $HIVE_HOME/lib 下查看,我发现它正在使用 protobuf-java-2.5.0.jar。我想知道这是否是导致此错误的原因以及我纠正它的选项。
想法?