您可以使用此处的文档。
当您使用引导节点执行集群安装时,这些说明和以下文件存在 您首先需要添加MESOS_ATTRIBUTES,如下所示。
只需在您想要的节点上添加以下行/var/lib/dcos/mesos-slave-common
(或您的节点是什么类型(slave|master|public))并重新启动代理服务systemctl restart dcos-mesos-slave.service
提示:您可以检查单元文件上加载的环境文件/etc/systemd/system/dcos-mesos-<mesos-node-type>.service
MESOS_ATTRIBUTES=<attribute>:<value>,<attribute>:<value> ...
然后按照文档,您可以提交您的火花作业:
docker run mesosphere/spark:2.3.1-2.2.1-2-hadoop-2.6 /opt/spark/dist/bin/spark-submit --deploy-mode cluster ... --conf spark.mesos.constraints="<attribute>:<value>" --conf spark.mesos.driver.constraints="<attribute>:<value>" ...
请记住, :
spark.mesos.constraints
适用于执行
spark.mesos.driver.constraints
程序,适用于驱动程序,
具体取决于您是否希望驱动程序或执行程序访问您想要的数据,并且将在具有您指定的属性的节点上创建 docker 图像。