10

我在尝试使用 java 代码将目录从本地系统复制到 HDFS 时遇到问题。我可以移动单个文件,但无法找到移动带有子文件夹和文件的整个目录的方法。任何人都可以帮助我吗?提前致谢。

4

2 回答 2

25

只需使用FileSystem' copyFromLocalFile方法。如果源路径是本地目录,它将被复制到 HDFS 目标:

...
Configuration conf = new Configuration();
conf.addResource(new Path("/home/user/hadoop/conf/core-site.xml"));
conf.addResource(new Path("/home/user/hadoop/conf/hdfs-site.xml"));

FileSystem fs = FileSystem.get(conf);
fs.copyFromLocalFile(new Path("/home/user/directory/"), 
  new Path("/user/hadoop/dir"));
...   
于 2012-10-08T21:55:35.107 回答
0

这是读取和写入 HDFS 的完整工作代码。它需要两个参数

  1. 输入路径(本地/HDFS)

  2. 输出路径(HDFS)

我使用了 Cloudera 沙箱。

 package hdfsread;

 import java.io.BufferedInputStream;
 import java.io.FileInputStream;
 import java.io.IOException;
 import java.io.InputStream;
 import java.io.OutputStream;
 import java.net.URI;

 import org.apache.hadoop.conf.Configuration;
 import org.apache.hadoop.fs.FileSystem;
 import org.apache.hadoop.fs.Path;
 import org.apache.hadoop.io.IOUtils;

 public class ReadingAFileFromHDFS {

     public static void main(String[] args) throws IOException {
         String uri = args[0];
         InputStream in = null;
         Path pt = new Path(uri);
         Configuration myConf = new Configuration();
         Path outputPath = new Path(args[1]);

         myConf.set("fs.defaultFS","hdfs://quickstart.cloudera:8020");
         FileSystem fSystem = FileSystem.get(URI.create(uri),myConf);
         OutputStream os = fSystem.create(outputPath);
         try{
             InputStream is = new BufferedInputStream(new FileInputStream(uri));
             IOUtils.copyBytes(is, os, 4096, false);
         }
         catch(IOException e){
             e.printStackTrace();
         }
         finally{
             IOUtils.closeStream(in);
         }
     }
}
于 2016-08-23T07:01:44.297 回答