0

我正在使用 Spark Job 服务器 docker

docker run -d -p 8090:8090 --name sjs --net=<network_name> -e SPARK_MASTER=spark://<host_name>:7077 velvia/spark-jobserver:0.6.2.mesos-0.28.1.spark-1.6.1

虽然它似乎正在工作,但当我提交工作时:

curl -d 'input.config = ""' '<spark-job-server-ip>:8090/jobs?appName=my_test_app&classPath=test.testapp&sync=true

但是根据日志,作业是在本地 Spark 上执行的,而不是在集群中执行的。

为了让作业在集群中而不是在本地机器中执行,还需要什么其他配置?

4

0 回答 0