我已经搜索并没有找到很多与 Hadoop Datanode 进程因超过 GC 开销限制而死亡相关的信息,所以我想我会发布一个问题。
我们正在运行一个测试,我们需要确认我们的 Hadoop 集群可以处理存储在其上的大约 300 万个文件(目前是一个 4 节点集群)。我们使用的是 64 位 JVM,我们已经为 namenode 分配了 8g。但是,当我的测试程序向 DFS 写入更多文件时,数据节点开始因以下错误而死亡:线程“DataNode:[/var/hadoop/data/hadoop/data]”中的异常 java.lang.OutOfMemoryError:超出 GC 开销限制
我看到了一些关于一些选项的帖子(并行 GC?)我想可以在 hadoop-env.sh 中设置,但我不太确定语法而且我是一个新手,所以我不太了解它是如何完成的。感谢您在这里的任何帮助!