我有一个示例,我们正在尝试执行看似简单的连接:
A = load 'data6' as ( item:chararray, d:int, things:bag{(thing:chararray, d1:int, values:bag{(v:chararray)})} );
B = load 'data7' as ( v:chararray, r:chararray );
grunt> cat data1
'item1' 111 { ('thing1', 222, {('value1'),('value2')}) }
grunt> cat data2
'value1' 'result1'
'value2' 'result2'
我们想将'result1'
,的'result2'
数据加入data2
到条目中data1
, 就很明显了value
。
我们设法将其展平:
A = load 'data6' as ( item:chararray, d:int, things:bag{(thing:chararray, d1:int, values:bag{(v:chararray)})} );
B = load 'data7' as ( v:chararray, r:chararray );
F1 = foreach A generate item, d, flatten(things);
F2 = foreach F1 generate item..d1, flatten(values);
然后我们加入了第二个数据集:
J = join F2 by v, B by v
J1 = foreach J generate item as item, d as d, thing as thing, d1 as d1, F2::things::values::v as v, r as r; --Remove duplicate field & clean up naming
dump J1
('item1',111,'thing1',222,'value1','result1')
('item1',111,'thing1',222,'value2','result2')
现在我们需要为每个项目调用一次 UDF 函数,因此我们需要重新分组这 2 个级别的包。每个项目有 0 个或多个事物,每个事物都有 0 个或多个值,而这些值现在可能有结果,也可能没有结果。
我们如何回到:
('item1', 111, { 'thing1', 222, { ('value1, 'result1'), ('value2', 'result2') }
我在分组和重新加入方面的所有尝试都变得复杂,未能产生正确的结果,并在 4 个以上的 mapreduce 作业中运行,这应该是 Hadoop 中的 1 个 mapreduce 作业。