只是想知道是否有人已经完成/意识到使用 Hadoop 将大图像编码/压缩为 JPEG2000 格式?还有这个http://code.google.com/p/matsu-project/使用 map reduce 来处理图像。
图像大小约为 1TB+,在单机上需要 100Hour+
只是想知道是否有人已经完成/意识到使用 Hadoop 将大图像编码/压缩为 JPEG2000 格式?还有这个http://code.google.com/p/matsu-project/使用 map reduce 来处理图像。
图像大小约为 1TB+,在单机上需要 100Hour+
你说的图片有多大?从JPEG 2000 Wikipedia 页面看来,平铺和小波变换应该很容易并行化——平铺看起来是相互独立的。有一个名为JasPer的开源库似乎被广泛使用,但它是用 C 编写的,这使得它在集成到 Hadoop 中有点棘手。
您基本上必须将编解码器分开并在映射步骤中调用适当的平铺和编码功能,并在减少步骤中重新组装和写出图像。它可能需要对 JPEG 2000 格式本身有相当深入的了解。
问题是:与在单台机器上连续处理切片相比,您将花费多少时间移动未压缩的数据然后重新组装它?您可能想要做一些粗略的计算,看看它是否值得,以及与在单台机器上做相比,理论上的加速比是多少。