0

我已经能够在 linux 环境中配置和启动 hdfs(apache hadoop)。我尝试了各种方法来使用 HADOOP ECLIPSE PLUGIN 为 hadoop 设置 eclipse 环境。只有 Eclipse 识别的插件 jar 存在 1280 jira 问题,其他方法甚至无法识别,例如从 hadoop src 构建 eclipse 插件等。来自 1280 链接的修补 jar 显示“无法连接到 127.0.0.1:3515 EOFException”。许多博客/论坛都说修补 hadoop 的不同方法,使用各种工具构建等等。等等。没有一个稳定的 hadoop 项目可以用 eclipse 配置,以便开发人员可以快速获取环境并处理各种示例?我不想使用 Cloudera VM,因为它让我无法以正常方式理解 hadoop,而且安装是一个包含大文件的过程。

谢谢查克里

4

3 回答 3

0

关于 ConnectException,如果按照 Claudia 的指示完成了所有其他操作,如果您仍然在 DFS 位置收到此异常,则意味着您使用的插件与您使用的 hadoop 版本或 eclipse 版本不兼容(通常是后者)。在这种情况下,请参考此处以便为您正在使用的 eclipse 版本编译一个新插件。

于 2013-01-09T10:06:31.273 回答
0

Hadoop 安装成功了吗?在我的 0.20.2 Hadoop 设置中,以下步骤用于获得一个正常运行的 Eclipse 插件(在我通过命令行安装 Hadoop 本身之后):

  1. 设置Eclipse,复制插件并重启;使用补丁插件(将 hadoop-eclipse-plugin-0.20.3-SNAPSHOT.jar 添加到本地 Eclipse/plugins 文件夹)。
  2. 切换到 Map/Reduce 透视图。如果没有出现 Map/Reduce Locations 选项卡,请转到 Window->Show View->Other 以激活它。确保知道 hdfs 的正确端口(可以在 Hadoop 设置的 core-site.xml 中找到)和 mapreduce 作业(可以在 mapred-site.xml 中找到)正在运行。
  3. Eclipse 插件中的“DfS 位置”需要手动刷新才能看到刚刚添加的新数据,因此如果您右键单击并将文件上传到 HDFS,请确保刷新
  4. 要在 Eclipse 中创建一个新的 Hadoop 项目,请转到 New Project -> Map/Reduce Project
于 2012-11-20T14:40:50.813 回答
0

@Claudia 除了在创建新的 hadoop 位置时进行这么多设置之外,还有其他与更改高级参数相关的内容吗?在常规选项卡中,端口是正确的,但我仍然遇到异常 - 错误:调用 localhost/127.0.0.1:9000 连接异常失败:java.net.ConnectException:连接被拒绝主节点与安装 eclipse 的节点相同.

于 2012-12-17T14:36:49.087 回答