我对此处解释的 MapReduce 示例有疑问:
它确实是hadoop MapReduce 最常见的例子,WordCount。
我能够在 Cosmos 的全局实例中毫无问题地执行它,但即使我给它一个小输入(一个 2 或 3 行的文件),执行它也需要很多时间(或多或少半分钟)。我认为这是它的正常行为,但我的问题是:¿为什么即使是很小的输入也需要这么长时间?
我猜这种方法可以通过更大的数据集提高其有效性,而这种最小延迟可以忽略不计。
我对此处解释的 MapReduce 示例有疑问:
它确实是hadoop MapReduce 最常见的例子,WordCount。
我能够在 Cosmos 的全局实例中毫无问题地执行它,但即使我给它一个小输入(一个 2 或 3 行的文件),执行它也需要很多时间(或多或少半分钟)。我认为这是它的正常行为,但我的问题是:¿为什么即使是很小的输入也需要这么长时间?
我猜这种方法可以通过更大的数据集提高其有效性,而这种最小延迟可以忽略不计。