3

在 Dataproc spark 集群中,graphframe 包在 spark-shell 中可用,但在 jupyter pyspark notebook 中不可用。

Pyspark 内核配置:

PACKAGES_ARG='--packages graphframes:graphframes:0.2.0-spark2.0-s_2.11'

以下是初始化集群的 cmd:

gcloud dataproc clusters create my-dataproc-cluster --properties spark.jars.packages=com.databricks:graphframes:graphframes:0.2.0-spark2.0-s_2.11 --metadata "JUPYTER_PORT=8124,INIT_ACTIONS_REPO=https://github.com/{xyz}/dataproc-initialization-actions.git" --initialization-actions  gs://dataproc-initialization-actions/jupyter/jupyter.sh --num-workers 2 --properties spark:spark.executorEnv.PYTHONHASHSEED=0,spark:spark.yarn.am.memory=1024m     --worker-machine-type=n1-standard-4  --master-machine-type=n1-standard-4
4

4 回答 4

4

这是 Spark Shells 和 YARN 的一个旧错误,我认为它已在SPARK-15782中修复,但显然这个案例被遗漏了。

建议的解决方法是添加

import os
sc.addPyFile(os.path.expanduser('~/.ivy2/jars/graphframes_graphframes-0.2.0-spark2.0-s_2.11.jar'))

在您导入之前。

于 2016-12-01T20:04:23.877 回答
1

我找到了另一种添加适用于 Jupyter notebook 的包的方法:

spark = SparkSession.builder \
.appName("Python Spark SQL") \    \
.config("spark.jars.packages", "graphframes:graphframes:0.5.0-spark2.1-s_2.11") \
.getOrCreate()
于 2017-07-10T06:53:14.260 回答
0

如果您可以使用 EMR 笔记本,那么您可以使用笔记本中的 install_pypi_package() API 安装其他 Python 库/依赖项。这些依赖项(包括传递依赖项,如果有的话)将安装在所有执行程序节点上。

更多详细信息:https ://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-scoped-libraries.html

于 2019-08-22T19:07:48.643 回答
0

最简单的方法是使用 pyspark 和 graphframes 启动 jupyter 是从 pyspark 启动 jupyter 并附加附加包

只需打开终端并设置两个环境变量,然后从pysparkgraphframes 包开始

export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS=notebook
pyspark --packages graphframes:graphframes:0.6.0-spark2.3-s_2.11

这样做的好处还在于,如果您以后想要通过运行代码,spark-submit可以使用相同的启动命令

于 2019-09-27T07:08:22.000 回答