在一些 Spark 代码中,我看到程序员使用这样的代码来创建 SparkContext
SparkSession session = SparkSession
.builder()
.appName("Spark Hive Example")
.config("spark.sql.warehouse.dir", warehouseLocation)
.enableHiveSupport()
.getOrCreate();
但我一直使用这种代码来创建 JavaSparkContext。
SparkConf sparkConf = new SparkConf().setAppName("Simple App").setMaster("local");
JavaSparkContext spark = new JavaSparkContext(sparkConf);
从代码的后半部分,有什么方法可以让我获得 Hive 上下文来对 Hive 表执行操作?
谢谢!