我注意到,当我使用spark/ec2/spark-ec2 start mycluster
安装例程从本地计算机启动 Spark EC2 集群时,我有一个讨厌的习惯,即破坏我放入集群 spark/conf/ 中的所有内容。每次启动集群时都不必运行 put-my-configs-back.sh 脚本,是否有一种“正确”的方法来设置在停止/启动后仍然存在的持久性配置?或者只是更好的方法?
我在本地使用 Spark 主机,在集群中使用 Spark 1.2。
我注意到,当我使用spark/ec2/spark-ec2 start mycluster
安装例程从本地计算机启动 Spark EC2 集群时,我有一个讨厌的习惯,即破坏我放入集群 spark/conf/ 中的所有内容。每次启动集群时都不必运行 put-my-configs-back.sh 脚本,是否有一种“正确”的方法来设置在停止/启动后仍然存在的持久性配置?或者只是更好的方法?
我在本地使用 Spark 主机,在集群中使用 Spark 1.2。