我不知道这是否已经在 SO 中得到解答,但我找不到解决我的问题的方法。
我在 Google Container Engine 的 docker 容器中运行了一个 IPython 笔记本,该容器基于此图像jupyter/all-spark-notebook
我还有一个使用google cloud dataproc创建的 spark 集群
Spark master 和 notebook 在不同的 VM中运行,但在相同的 region 和 zone中。
我的问题是我正在尝试从 IPython 笔记本连接到 spark master,但没有成功。我在我的 python 笔记本中使用了这段代码
import pyspark
conf = pyspark.SparkConf()
conf.setMaster("spark://<spark-master-ip or spark-master-hostname>:7077")
我刚开始使用 spark,所以我确定我遗漏了一些东西(身份验证、安全性......),
我在那里发现的是通过SSH 隧道连接本地浏览器
有人已经做过这种设置了吗?
先感谢您