从我所读到的少量内容中,我了解到 Hadoop 非常适合处理以下一类问题——通过在可能的多个节点之间分配计算来回答一个庞大的问题。
Hadoop 是否旨在解决涉及多个计算的问题,在同一个数据集上,但每个都有不同的参数?例如,基于相同的主数据集,但使用不同的参数模拟不同的场景(例如,在相同的数据集上测试数据挖掘模型,但产生多次模拟迭代,每次迭代都有不同的参数集并找到最佳模型)
例如,对于一个预测天气的模型,它有一组具有不同权重的规则,Hadoop 是否支持运行相同的模型,但每个“节点”在学习集上以不同的权重值运行并比较预测结果以找到最佳模型?
或者这是 Hadoop 根本不适合做的事情?