1

我正在通过独立集群部署 spark 应用程序。我有一个主人和两个奴隶。

我正在测试我的集群。我在同一个位置到处都复制了应用程序 .jar。

我观察到以下问题:

在大师

bin/spark-submit  --class ***** --master spark://master:6066  --conf spark.driver.userClassPathFirst=true --deploy-mode cluster  --executor-memory 1g --executor-cores 1   ******.jar

线程“主”java.net.BindException 中的异常:无法分配请求的地址:服务“驱动程序”在 16 次重试后失败!考虑将服务“驱动程序”的适当端口(例如 SparkUI 的 spark.ui.port)显式设置为可用端口或增加 spark.port.maxRetries。

在slave1上

bin/spark-submit  --class ***** --master spark://master:6066  --conf spark.driver.userClassPathFirst=true --deploy-mode cluster  --executor-memory 1g --executor-cores 1   ******.jar

作业执行

在slave2上

bin/spark-submit  --class ***** --master spark://master:6066  --conf spark.driver.userClassPathFirst=true --deploy-mode cluster  --executor-memory 1g --executor-cores 1   ******.jar

作业执行

但是我在奴隶上提交了多个作业,只有第一个作业执行。

在大师

bin/spark-submit  ******.jar  --class ******

作业执行占用两个从属设备上的全部资源,并且不考虑剩余的参数

但是,如果我将 jar 放在命令末尾,则会发生上述前 3 种情况。

我已经 在 AWS ec2 实例上使用http://spark.praveendeshmane.co.in/spark/spark-1-6-1-cluster-mode-installation-on-ubuntu-14-04.jsp完成了集群配置。

我想同时执行多个作业。

4

0 回答 0