我已经设置了一个 JupyterHub 并为它配置了一个 pyspark 内核。当我打开一个 pyspark 笔记本(在用户名 Jeroen 下)时,添加了两个进程,一个 Python 进程和一个 Java 进程。Java 进程被分配了 12g 的虚拟内存(见图)。在 1B 数字范围内运行测试脚本时,它会增长到 22g。当我们在这个服务器上与多个用户一起工作时,这是否值得担心?如果是,我怎样才能防止 Java 分配这么多内存?
问问题
578 次