0

我安装了 spark-1.5.1-bin-without-hadoop 并尝试使用 spark 安装目录中的以下命令启动直线。./bin/beeline 我得到“错误:无法找到或加载主类 org.apache.hive.beeline.BeeLine”。

4

2 回答 2

1

不知道为什么类路径不起作用。我遇到了同样的问题并最终在 lib_managed 目录下运行带有 jar 的 java。请注意,使用详细选项是因为在某些 NoClassDef 情况下没有显示错误。

java -cp lib_managed/jars/hive-exec-1.2.1.spark.jar:lib_managed/jars/hive-metastore-1.2.1.spark.jar:lib_managed/jars/httpcore-4.3.1.jar:lib_managed/jars/httpclient-4.3.2.jar:lib_managed/jars/libthrift-0.9.2.jar:lib_managed/jars/hive-beeline-1.2.1.spark.jar:lib_managed/jars/jline-2.12.jar:lib_managed/jars/commons-cli-1.2.jar:lib_managed/jars/super-csv-2.2.0.jar:lib_managed/jars/commons-logging-1.1.3.jar:lib_managed/jars/hive-jdbc-1.2.1.spark.jar:lib_managed/jars/hive-cli-1.2.1.spark.jar:lib_managed/jars/hive-service-1.2.1.spark.jar:assembly/target/scala-2.10/spark-assembly-1.5.3-SNAPSHOT-hadoop2.2.0.jar org.apache.hive.beeline.BeeLine -u jdbc:hive2://<thrift server public address>:10000/default --verbose=true
于 2016-04-26T18:49:23.407 回答
0

我有完全相同的问题。对我来说,设置 SPARK_HOME 环境变量做到了!

export SPARK_HOME=/Users/../Downloads/spark-2.1.1-bin-hadoop2.7

这是因为如果你真的打开并看到“bin/beeline”脚本文件,你会发现这一行:

确定是否设置了 SPARK_HOME

因此,在将 SPARK_HOME 设置为正确位置后,直线开始正常工作。

于 2017-06-16T12:39:39.347 回答