我运行一个有 20 个节点的 hadoop 集群。
我运行了一项使用大量内存的繁重工作。出于某种原因,某些任务似乎与工作“脱节”。为什么会这样?
我的任务超时为 600 秒。这些任务的运行远不止于此。我通过查看 java 进程就知道了。
作业完成后,我仍然在运行 map reduce 进程。
有没有人遇到过这样的问题?
我运行一个有 20 个节点的 hadoop 集群。
我运行了一项使用大量内存的繁重工作。出于某种原因,某些任务似乎与工作“脱节”。为什么会这样?
我的任务超时为 600 秒。这些任务的运行远不止于此。我通过查看 java 进程就知道了。
作业完成后,我仍然在运行 map reduce 进程。
有没有人遇到过这样的问题?