0

我在谷歌云平台上运行一个 Hadoop 集群,使用谷歌云存储作为持久数据的后端。我能够从远程机器 ssh 到主节点并运行 hadoop fs 命令。无论如何,当我尝试执行以下代码时,我会收到超时错误。

代码

FileSystem hdfs =FileSystem.get(new URI("hdfs://mymasternodeip:8020"),new Configuration());
Path homeDir=hdfs.getHomeDirectory();
//Print the home directory
System.out.println("Home folder: " +homeDir); 

// Create a directory
Path workingDir=hdfs.getWorkingDirectory();
Path newFolderPath= new Path("/DemoFolder");

newFolderPath=Path.mergePaths(workingDir, newFolderPath);
if(hdfs.exists(newFolderPath))
    {
        hdfs.delete(newFolderPath, true); //Delete existing Directory
    }
//Create new Directory
hdfs.mkdirs(newFolderPath); 

执行 hdfs.exists() 命令时出现超时错误。

错误

org.apache.hadoop.net.ConnectTimeoutException:调用从 gl051-win7/192.xxx.1.xxx 到 111.222.333.444.bc.googleusercontent.com:8020 套接字超时异常失败:org.apache.hadoop.net.ConnectTimeoutException :等待通道准备好连接时的 20000 毫秒超时。ch : java.nio.channels.SocketChannel[连接挂起远程=111.222.333.444.bc.googleusercontent.com/111.222.333.444:8020]

您是否知道在 Google Cloud Platform 上针对 Hadoop 使用 Java Hadoop API 的任何限制?

谢谢!

4

1 回答 1

0

看起来您正在本地机器上运行该代码并尝试连接到 Google Compute Engine VM;默认情况下,GCE 具有严格的防火墙设置,以避免将您的外部 IP 地址暴露给任意入站连接。如果您使用默认值,那么您的 Hadoop 集群应该在“默认”GCE 网络上。您需要按照添加防火墙的说明来允许端口 8020 上的传入 TCP 连接以及其他 Hadoop 端口以及来自本地 IP 地址的传入 TCP 连接才能正常工作。它看起来像这样:

gcloud compute firewall-rules create allow-http \
    --description "Inbound HDFS." \
    --allow tcp:8020 \
    --format json \
    --source-ranges your.ip.address.here/32

请注意,您确实希望避免打开0.0.0.0/0源范围,因为 Hadoop 不会对这些传入请求进行身份验证或授权。您需要尽可能将其限制为仅计划拨入的入站 IP 地址。您可能还需要打开几个其他端口,具体取决于您使用什么功能连接到 Hadoop。

更一般的建议是,只要有可能,您应该尝试在 Hadoop 集群本身上运行您的代码;在这种情况下,您将使用主主机名本身作为 HDFS 权限,而不是外部 IP:

hdfs://<master hostname>/foo/bar

这样,您可以将端口暴露限制为仅 SSH 端口 22,其中传入流量由 SSH 守护程序正确控制,然后您的代码不必担心哪些端口是开放的,甚至不必担心处理 IP 地址全部。

于 2015-06-30T23:40:27.133 回答