官方spark 文档仅包含有关spark-submit
将代码部署到 spark 集群的方法的信息。它提到我们必须在 kubernetes api 服务器的地址前面加上k8s://
. 通过Spark Operator部署时我们应该怎么做?
例如,如果我有一个像这样启动的基本 pyspark 应用程序,我该如何设置 master:
from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext
from pyspark.sql.types import *
from pyspark import SparkConf, SparkContext
sc = SparkContext("local", "Big data App")
spark = SQLContext(sc)
spark_conf = SparkConf().setMaster('local').setAppName('app_name')
在这里我有local
,如果我在非 k8 的集群上运行,我会提到带有spark://
前缀或的主地址yarn
。k8s://
如果通过 Spark Operator 部署,我还必须使用前缀吗?如果不是,主参数应该使用什么?