7

在为我当前的一个项目构建基础架构时,我遇到了替换现有 HDFS 文件的问题。更准确地说,我想做以下事情:

我们有几台机器(日志服务器)不断生成日志。我们有一台专用机器(日志预处理器)负责从日志服务器接收日志块(每个块的长度约为 30 分钟,大小为 500-800 mb),对它们进行预处理并上传到我们的 Hadoop 集群的 HDFS .

预处理分三步完成:

  1. 对于每个日志服务器:过滤(并行)接收到的日志块(输出文件约为 60-80mb
  2. 合并(合并排序)步骤 1 中的所有输出文件并进行一些小的过滤(此外,30 分钟的文件被合并为 1 小时的文件)
  3. 使用来自外部数据库的当前映射,处理步骤#2 中的文件以获取最终日志文件并将此文件放入 HDFS。

最终日志文件将用作在 HADOOP 集群上运行的几个 periodoc HADOOP 应用程序的输入。在 HDFS 中,日志文件存储如下:

hdfs:/spool/.../logs/YYYY-MM-DD.HH.MM.log

问题描述:

第 3 步中使用的映射会随着时间而变化,我们需要通过重新计算第 3 步并用新的 HDFS 文件替换旧的 HDFS 文件来反映这些变化。至少在过去 12 小时内以某种周期性(例如每 10-15 分钟)执行此更新。请注意,如果映射发生了变化,在同一个输入文件上应用 step3 的结果可能会有很大不同(它不仅仅是先前结果的超集/子集)。所以我们需要覆盖HDFS 中的现有文件。

但是,我们不能只执行hadoop fs -rm然后hadoop fs -copyToLocal因为如果某些 HADOOP 应用程序正在使用临时删除的文件,则应用程序可能会失败。我使用的解决方案 - 在旧文件附近放置一个新文件,这些文件具有相同的名称但不同的后缀表示文件的版本。现在布局如下:

hdfs:/spool/.../logs/2012-09-26.09.00.log.v1
hdfs:/spool/.../logs/2012-09-26.09.00.log.v2
hdfs:/spool/.../logs/2012-09-26.09.00.log.v3
hdfs:/spool/.../logs/2012-09-26.10.00.log.v1
hdfs:/spool/.../logs/2012-09-26.10.00.log.v2

任何 Hadoop 应用程序在启动(设置)期间都会选择具有最新版本的文件并使用它们。因此,即使正在进行一些更新,应用程序也不会遇到任何问题,因为没有删除输入文件。

问题:

  1. 你知道一些不使用这种复杂/丑陋的文件版本控制的更简单的方法吗?

  2. 一些应用程序可能开始使用当前正在上传但尚未上传的 HDFS 文件(应用程序在 HDFS 中看到此文件但不知道它是否一致)。如果是 gzip 文件,这可能会导致映射器失败。你能建议我如何处理这个问题吗?我知道对于本地文件系统,我可以执行以下操作:

    cp infile /finaldir/outfile.tmp && mv /finaldir/output.tmp /finaldir/output

这是有效的,因为mv是一个原子操作,但是我不确定 HDFS 是否属于这种情况。如果 HDFS在传统的本地文件系统中具有像 mv 这样的原子操作,您能否提出建议?

提前致谢!

4

1 回答 1

6

IMO,文件重命名方法绝对可以使用。

HDFS,最高 1.x,缺少原子重命名(它们是更新 IIRC) - 但该操作通常被认为是“类似原子的”,并且从未给您在这里想到的特定场景带来问题。您可以依赖它而不必担心部分状态,因为源文件已经创建并关闭。

HDFS 2.x 及更高版本支持正确的原子重命名(通过新的 API 调用),它已经取代了早期版本的脏重命名。如果您使用FileContext API ,这也是重命名的默认行为。

于 2012-12-30T20:54:30.547 回答