我正在使用 Hadoop 0.20.2(无法更改)并且我想在我的输入路径中添加一个过滤器。数据如下所示:
/path1/test_a1
/path1/test_a2
/path1/train_a1
/path1/train_a2
我只想处理所有带有火车的文件。
看一下 FileInputFormat 类建议使用:
FileInputFormat.setInputPathFilter(Job job, Class<? extends PathFilter> filter)
这就是我的问题开始的地方,因为PathFilter是一个接口 - 当然,我可以扩展接口,但我仍然没有实现。因此,我实现了接口:
class TrainFilter implements PathFilter
{
boolean accept(Path path)
{
return path.toString().contains("train");
}
}
当我使用 TrainFilter 作为 PathFilter 代码编译时,但是当我运行它时,由于输入路径被搞砸了,我得到一个异常。如果不设置过滤器,我的代码会运行 /path1 下的所有文件,但是,在设置过滤器时,它会抛出错误:
InvalidInputException: Input path does not exist hdfs://localhost:9000/path1
以下是我在驱动程序代码中的设置方式:
job.setMapperClass(....class);
job.setInputFormatClass(....class);
job.setMapOutputKeyClass(...class);
job.setMapOutputValueClass(Text.class);
job.setOutputKeyClass(IntWritable.class);
job.setOutputValueClass(IntWritable.class);
FileInputFormat.setInputPathFilter(job, TrainFilter.class);
FileInputFormat.addInputPath(job, new Path("/path1/"));
FileOutputFormat.setOutputPath(job, new Path("/path2/"));
job.waitForCompletion(true);
关于我在这里做错了什么的任何建议?
编辑:我发现了问题。对 PathFilter 的第一次调用始终是目录本身 (/path1),因为它不包含 ("train"),所以目录本身是无效的,因此会引发异常。这让我想到了另一个问题:我如何测试任意路径是否是目录?据我所知,我需要一个对 FileSystem 的引用,它不是 PathFilter 的默认参数之一。