0

我正在尝试使用 hadoop fs 和 jets3t 将文件从本地上传到 s3,但出现以下错误

Caused by: java.util.concurrent.ExecutionException: org.apache.hadoop.fs.s3.S3Exception: org.jets3t.service.S3ServiceException: Request Error. HEAD '/project%2Ftest%2Fsome_event%2Fdt%3D2015-06-17%2FsomeFile' on Host 'host.s3.amazonaws.com' @ 'Thu, 18 Jun 2015 23:33:01 GMT' -- ResponseCode: 404, ResponseStatus: Not Found, RequestId: AVDFJKLDFJ3242, HostId: D+sdfjlakdsadf\asdfkpagjafdjsafdj

我对为什么 jets3t 需要执行 HEAD 上传请求感到困惑。由于我正在上传的文件在 s3 上尚不存在,因此当然不应该找到它。

我假设因为我有 404 错误,所以它不可能是权限问题。

调用此错误的代码是:

import org.apache.hadoop.conf.Configuration;
  import org.apache.hadoop.fs.FileStatus;
  import org.apache.hadoop.fs.FileSystem;
  import org.apache.hadoop.fs.Path;

...

  String path = "s3n://mybucket/path/to/event/partition/file"
  Configuration conf = new Configuration();
  conf.set("fs.s3n.awsAccessKeyId", "MYACCESSKEY");
  conf.set("fs.s3n.awsSecretAccessKey", "MYSECRETKEY");
  FileSystem fileSystem = FileSystem.get(URI.create(path), conf);
  fileSystem.moveFromLocalFile("my/source/path/to/file", path);
4

1 回答 1

0

好吧,我为后代回答这个问题。这个问题实际上是专家。

看来我使用的是两个框架的不兼容版本。当然 maven 是 maven,无法检测到这一点。

于 2015-06-23T18:19:00.760 回答