我有一个安装了 Hadoop 的 EC2 映像。但是,我在实例化时将其设置为无角色(它不是从属或主控)。为了启动 Hadoop 集群,我在 EC2 上启动了所需数量的实例(节点),然后我必须对每个节点执行以下 3 项操作:
- 更新 /etc/hosts 以包含必要的 IP 地址。
- 如果是主节点,更改 $HADOOP_HOME/conf/masters 和 $HADOOP_HOME/conf/slaves
- 启用节点之间的 SSH 访问。
我希望能够找到一种自动执行此操作的方法,以便对于任意数量的节点,我不必进入并在每个节点上设置所有这些设置。
其他人如何处理自动设置 Hadoop 集群?有没有办法自动化网络部分?
我不确定这是否可能,因为 IP 地址每次都会不同,但我想知道其他人尝试过什么或常用什么。有没有一种好方法可以自动化这些过程,所以每次我设置一个集群进行测试时,我不必为每个节点都做这些?我对Linux脚本不太了解,这可以通过脚本实现吗?还是我只需要手动配置每个节点?