我正在寻找一种方法来实现从多个输入消耗的 SparkCompute(或 SparkSink)插件的 SparkCompute(或 SparkSink)插件。
看界面,SparkCompute
和SparkSink
插件都仅限于使用一个。
这是摘自io.cdap.cdap.etl.api.batch.SparkCompute
/**
* Transform the input and return the output to be sent to the next stage in the pipeline.
*
* @param context {@link SparkExecutionPluginContext} for this job
* @param input input data to be transformed
* @throws Exception if there is an error during this method invocation
*/
public abstract JavaRDD<OUT> transform(SparkExecutionPluginContext context, JavaRDD<IN> input) throws Exception;
(只有一个JavaRDD<IN>
(方法签名中
有没有办法访问所有的输入(通过SparkExecutionPluginContext context
或类似的东西)?