我正在通过 Google Data Fusion Pipeline 处理文件,但随着管道的进行,我遇到了警告和错误:
09/25/2020 12:31:31 WARN org.apache.spark.storage.memory.MemoryStore#66-Executor task launch worker for task 6 没有足够的空间在内存中缓存 rdd_10_6!(目前计算为 238.5 MB)
2020 年 9 月 25 日 12:45:05 错误 org.apache.spark.scheduler.cluster.YarnClusterScheduler#70-dispatcher-event-loop-1
在 cdap-soco-crea-99b67b97-fefb-11ea-8ee6- 上丢失了执行程序 2 daceb18eb3cf-w-0.c.datalake-dev-rotw-36b8.internal:容器标记为失败:container_1601016787667_0001_01_000003 在主机上:cdap-soco-crea-99b67b97-fefb-11ea-8ee6-daceb18eb3cf-w-0.c.datalake -dev-rotw-36b8.internal。退出状态:3。诊断:[2020-09-25 07:15:05.226]容器启动异常。容器 ID:container_1601016787667_0001_01_000003 退出代码:3
请帮忙 !