2

sparkcontext 创建如下

SparkConf sparkConf = new SparkConf().setAppName(args[0]);
snappySes = new SnappySession(new SparkSession.Builder().config("spark.snappydata.connection", "localhost:1527").getOrCreate())

读取快速数据

snappySes.table("SNAPPY_COL_TABLE").show(10);

作业提交如下

/usr/hdp/2.6.2.0-205/spark2/bin/spark-submit --conf --conf snappydata.connection=localhost:1527 --conf spark.ui.port=0 --master local[*] --driver-memory 2g --jars  --deploy-mode client --conf spark.driver.extraClassPath=/root/snappydata-1.0.1-bin/jars/* --conf  spark.executor.extraClassPath=/root/snappydata-1.0.1-bin/jars/* --class myclass

作业正在连接到 snappydata,日志如下

在集群模式下初始化 SnappyData:智能连接器模式:sc = org.apache.spark.SparkContext@164d01ba, url = jdbc:snappydata://localhost[1527]/

但是由于找不到表而失败。这是指向不同的存储,列出了不同的表

如果使用 snappy 的 sparksubmit 提交相同的作业。按预期工作。唯一的变化是提交工作是

/usr/hdp/2.6.2.0-205/spark2/bin/spark-submit --- fails
/root/snappydata-1.0.1-bin/bin/spark-submit ---- Pass
4

1 回答 1

0

大概您正在运行两个 snappydata 集群。而且,不知何故你localhost没有统一解决?如果您停止 snappy 集群,当您提交给 HDP 时是否会出现异常?

于 2018-05-09T19:27:56.580 回答