我正在使用以下命令将一些数据从 HDFS 复制到 S3:
$ hadoop distcp -m 1 /user/hive/data/test/test_folder=2015_09_19_03_30 s3a://data/Test/buc/2015_09_19_03_30
2015_09_19_03_30
存储桶在 S3 中不存在。它成功地将目录的数据复制/user/hive/data/test/test_folder=2015_09_19_03_30
到 S32015_09_19_03_30
存储桶中,但是当我再次执行相同的命令时,它会在 S3 中创建另一个存储桶。
我希望这两个文件都应该在同一个桶中。