我在实验室设置中安装了以下堆栈:
- Hadoop 2.7.1
- 蜂巢 1.2.2
- HBase 1.7.1
- 麒麟3.1.2
我现在尝试从 Kylin 本身提供的示例数据集构建一个立方体,并且该过程卡在 78.26%“将 Cuboid 数据转换为 HFile”。日志没有显示任何错误,并且在几个小时后失败,可能是因为超时。
你们中有人遇到过这个问题并设法解决了吗?
查看文档,描述了这种行为:
在某些 Hadoop 版本中,您可能会在“Convert Cuboid Data to HFile”中遇到以下错误:
Caused by: java.lang.RuntimeException: Could not create interface org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory Is the hadoop compatibility jar on the classpath?
规定的解决方案是在 $KYLIN_HOME/spark/jars 中添加hbase-hadoop2-compat-*.jar
和hbase-hadoop-compat-*.jar
(这两个 jar 文件可以在 HBase 的 lib 文件夹中找到);如果您已经制作了 Spark 程序集 jar 并上传到 HDFS,您可能需要重新打包并重新上传到 HDFS。