在 IBM DSX 上,我遇到以下问题。
对于 DSX 上的 Spark 1.6 内核,有必要/有必要创建新的 SQLContext 对象以避免与metastore_db
和有关的问题HiveContext
:http ://stackoverflow.com/questions/38117849/you-must-build-spark-with-hive-出口火花蜂巢真实/38118112#38118112
以下代码片段是使用 Spark 1.6 实现的,并且都适用于 Spark 2.0.2,但不适用于 Spark 2.1:
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
df = sqlContext.createDataFrame([(1, "a"), (2, "b"), (3, "c"), (4, "d")], ("k", "v"))
df.count()
和
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
properties= {
'jdbcurl': 'JDBCURL',
'user': 'USER',
'password': 'PASSWORD!'
}
data_df_1 = sqlContext.read.jdbc(properties['jdbcurl'], table='GOSALES.BRANCH', properties=properties)
data_df_1.head()
我收到此错误:
IllegalArgumentException: u"Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState':"
但是,当我第二次执行相同的代码时,它又可以工作了。