我正在尝试将 pyspark 连接到 MongoDB(在 Databricks 上运行):
from pyspark import SparkConf, SparkContext
from pyspark.mllib.recommendation import ALS
from pyspark.sql import SQLContext
df = spark.read.format("com.mongodb.spark.sql.DefaultSource").load()
但我得到这个错误
java.lang.NoClassDefFoundError: org/apache/spark/sql/DataFrame
我正在使用 Spark 2.0 和 Mongo-spark-connector 2.11 并定义 spark.mongodb.input.uri 和 spark.mongodb.output.uri