1

我们试图将 S3 用于 Flink 后端状态和检查点,并在法兰克福使用了一个存储桶(V4 身份验证)它给出了我在此处发布的错误(无法使用 Hadoop 访问 S3 存储桶),这是由于 hadoop。然而 hadoop 2.8.0 可以工作,但还没有 Flink 支持。

猜猜我的问题是 Flink 什么时候会提供基于 hadoop 2.8.0 的版本?

4

2 回答 2

1

一旦 Hadoop 版本发布,Flink 可能会提供 Hadoop 2.8.0 版本。

同时,您可以使用自定义 Hadoop 版本自己构建 Flink:

mvn clean install -DskipTests -Dhadoop.version=2.8.0

于 2017-03-27T19:22:49.163 回答
1

Hadoop 2.7.x 确实适用于法兰克福和 v4 API 端点。如果您遇到问题,请检查您的 joda-time 版本,因为旧的 joda-time JAR 和 Java 版本的奇怪组合会导致 AWS 获得格式错误的时间戳,然后它会在普遍存在的“bad auth”消息中拒绝该时间戳。

于 2017-04-24T19:40:33.033 回答