0

我在实验室设置中安装了以下堆栈:

  • Hadoop 2.7.1
  • 蜂巢 1.2.2
  • HBase 1.7.1
  • 麒麟3.1.2

我现在尝试从 Kylin 本身提供的示例数据集构建一个立方体,并且该过程卡在 78.26%“将 Cuboid 数据转换为 HFile”。日志没有显示任何错误,并且在几个小时后失败,可能是因为超时。

你们中有人遇到过这个问题并设法解决了吗?

4

1 回答 1

0

查看文档,描述了这种行为:

在某些 Hadoop 版本中,您可能会在“Convert Cuboid Data to HFile”中遇到以下错误:

Caused by: java.lang.RuntimeException: 
Could not create  interface org.apache.hadoop.hbase.regionserver.MetricsRegionServerSourceFactory 
Is the hadoop compatibility jar on the classpath?

规定的解决方案是在 $KYLIN_HOME/spark/jars 中添加hbase-hadoop2-compat-*.jarhbase-hadoop-compat-*.jar(这两个 jar 文件可以在 HBase 的 lib 文件夹中找到);如果您已经制作了 Spark 程序集 jar 并上传到 HDFS,您可能需要重新打包并重新上传到 HDFS。

于 2021-08-23T08:32:04.750 回答