0

嗨我有一个小疑问,我已经开始使用我的好奇心,但现在我有以下问题我的场景是这样的 - 我有 10 台机器连接在 LAN 中,我需要在一个系统中创建名称节点和剩余的数据节点9台机器。那么我需要在所有 10 台机器上安装 Hadoop 吗?

例如,我有(1.. 10)台机器,其中 machine1 是服务器,机器(2..9)是从属设备[数据节点],所以我需要在所有 10 台机器上安装 hadoop吗?

而且我在商品机器上的 Hadoop 集群网络上进行了很多搜索,但我没有得到任何与安装相关的东西 [即配置]。其中一些给出了如何在自己的系统上而不是在集群环境上配置和安装 Hadoop

谁能帮我 ?并给我详细的想法或文章建议的链接来完成上述过程

谢谢

4

3 回答 3

2

是的,您需要在每个节点中安装 Hadoop,并且每个节点都应该启动适合其角色的服务。此外,每个节点上的配置文件必须连贯地描述集群的拓扑结构,包括各种常用资源(例如,namenode)的位置/名称/端口。从头开始手动执行此操作很容易出错,特别是如果您以前从未这样做过并且您不确切知道您要做什么。也可以决定 Hadoop 的特定分布(HortonWorks、Cloudera、HDInsight、英特尔等)

我建议使用现有的众多部署解决方案之一。我最喜欢的是Puppet,但我相信Chef也会这样做。

另一种(也许更好?)替代方法是使用 Ambari,它是一种 Hadoop 专用部署和管理解决方案。请参阅使用 AMBARI 部署和管理 Hadoop 集群

一些 Puppet 资源可帮助您入门:使用 Vagrant、Puppet、测试和 Hadoop

于 2013-10-29T13:03:11.847 回答
1
  1. Yes hadoop needs to be there on all the computers
  2. For clustered Environment please go through the video
于 2013-10-29T13:51:33.443 回答
1

请验证以下教程

http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/

希望能帮助到你

于 2013-10-29T13:30:45.660 回答