0

pyspark dataproc在提交有关创建建议的作业时,我收到了以下错误日志。

SparkContext:Spark 未在本地模式下运行,因此检查点目录不得位于本地文件系统上。目录“检查点/”似乎在本地文件系统上。读取...回溯(最近一次调用最后):文件“/tmp/job-614e830d/train_and_apply.py”,第 50 行,在模型 = ALS.train(dfRates .rdd, 20, 20) # 你可以调整这些数字,但这些都是合理的选择 File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/mllib/recommendation.py", line 272, in train文件“/usr/lib/spark/python/lib/pyspark.zip/pyspark/mllib/recommendation.py”,第 229 行,in_prepareFile“/usr/lib/spark/python/lib/pyspark.zip/pyspark/rdd. py",第 1364 行,

有什么建议吗?

4

0 回答 0