我在 spark 作业中使用 BigQueryInputFormat,将数据直接从 Bigquery 加载到 RDD 中。文档说明您应该使用以下命令清理临时文件:
BigQueryInputFormat.cleanupJob(作业)
但是,从 Spark 工作中,当“工作”是 hadoop 工作时,我该怎么做?
谢谢,卢克
我在 spark 作业中使用 BigQueryInputFormat,将数据直接从 Bigquery 加载到 RDD 中。文档说明您应该使用以下命令清理临时文件:
BigQueryInputFormat.cleanupJob(作业)
但是,从 Spark 工作中,当“工作”是 hadoop 工作时,我该怎么做?
谢谢,卢克