我有一个问题可以通过 Hadoop Streaming 在“typedbytes”或“rawbytes”模式下解决,它允许使用 Java 以外的语言分析二进制数据。(如果没有这个,Streaming 会将一些字符(通常是 \t 和 \n)解释为分隔符并抱怨非 utf-8 字符。将我所有的二进制数据转换为 Base64 会减慢工作流程,从而达到目的。)
这些二进制模式是由HADOOP-1722添加的。在调用 Hadoop Streaming 作业的命令行中,“-io rawbytes”允许您将数据定义为 32 位整数大小,后跟该大小的原始数据,“-io typedbytes”允许您将数据定义为 1 - 位零(表示原始字节),后跟 32 位整数大小,然后是该大小的原始数据。我已经创建了具有这些格式的文件(带有一条或多条记录),并通过使用/对照typedbytes.py的输出检查它们来验证它们的格式是否正确。我还尝试了所有可能的变体(大端、小端、不同的字节偏移等)。我正在使用来自 CDH4 的 Hadoop 0.20,它具有实现 typedbytes 处理的类,并且在设置“-io”开关时进入这些类。
我使用“hadoop fs -copyFromLocal”将二进制文件复制到 HDFS。当我尝试将其用作 map-reduce 作业的输入时,它会在尝试创建我指定长度的字节数组(例如 3 个字节)的行上出现 OutOfMemoryError 失败。它必须错误地读取数字并尝试分配一个巨大的块。尽管如此,它确实设法将记录发送到映射器(以前的记录?不确定),它将它写入标准错误,以便我可以看到它。记录开头总是有太多字节:例如,如果文件是“\x00\x00\x00\x00\x03hey”,则映射器会看到“\x04\x00\x00\x00\x00\x00 \x00\x00\x00\x07\x00\x00\x00\x08\x00\x00\x00\x00\x03hey”(可重现的位,虽然我看不到任何模式)。
从本次演讲的第 5 页,我了解到流式传输有“loadtb”和“dumptb”子命令,它们可以在一个步骤中复制到 HDFS 或从 HDFS 复制和包装/解包序列文件中的类型化字节。当与“-inputformat org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat”一起使用时,Hadoop 会正确解压缩 SequenceFile,但随后会以完全相同的方式误解其中包含的 typedbytes。
此外,我找不到有关此功能的文档。2 月 7 日(我通过电子邮件发送给自己),它在 Apache 上的 streaming.html 页面中被简要提及,但这个 r0.21.0 网页已被删除,r1.1.1 的等效页面没有提及 rawbytes或打字字节。
所以我的问题是:在 Hadoop Streaming 中使用 rawbytes 或 typedbytes 的正确方法是什么?有没有人让它工作?如果是这样,有人可以发布食谱吗?对于任何想要在 Hadoop Streaming 中使用二进制数据的人来说,这似乎都是一个问题,这应该是一个相当广泛的群体。
PS 我注意到Dumbo、Hadoopy和rmr都使用了这个特性,但是应该有一种方法可以直接使用它,而不需要基于 Python 或 R 的框架。