Find centralized, trusted content and collaborate around the technologies you use most.
Teams
Q&A for work
Connect and share knowledge within a single location that is structured and easy to search.
我正在使用 mrjob 处理一批文件并获取一些统计信息。我知道我可以在单个文件上运行 mapreduce 作业,例如
python count.py < some_input_file > output
但是如何将文件目录提供给脚本?文件目录结构是这样folder/subfolders/files的,有什么建议吗?
folder/subfolders/files
好吧,最后我发现我可以指定一个目录作为输入路径,Hadoop 将处理该目录中的所有文件。
在我的情况下,我有包含输入文件的子目录。Hadoop 不会递归遍历目录,默认会报错。一个常见的技巧是使用通配符 glob
python count.py hdfs://master-host/directory/*/*.txt > result