9

我正在尝试使用用于 EMR 的 boto3 客户端执行 spark-submit。执行以下代码后,EMR 步骤提交,几秒钟后失败。如果在 EMR 主服务器上手动执行,则步骤日志中的实际命令行正在运行。

控制器日志显示几乎不可读的垃圾,看起来像是多个进程同时在那里写入。

UPD:尝试了command-runner.jar和 EMR 版本 4.0.0 和 4.1.0

任何想法表示赞赏。

代码片段:

class ProblemExample:
    def run(self):
        session = boto3.Session(profile_name='emr-profile')
        client = session.client('emr')
        response = client.add_job_flow_steps(
        JobFlowId=cluster_id,
        Steps=[
            {
                'Name': 'string',
                'ActionOnFailure': 'CONTINUE',
                'HadoopJarStep': {
                    'Jar': 's3n://elasticmapreduce/libs/script-runner/script-runner.jar',
                    'Args': [
                        '/usr/bin/spark-submit',
                        '--verbose',
                        '--class',
                        'my.spark.job',
                        '--jars', '<dependencies>',
                        '<my spark job>.jar'
                    ]
                }
            },
        ]
    )
4

1 回答 1

17

最后通过正确转义 --jars 值解决了问题。

spark-submit 未能找到类,但在杂乱日志的背景下,错误并不清楚。

有效的例子是:

class Example:
  def run(self):
    session = boto3.Session(profile_name='emr-profile')
    client = session.client('emr')
    response = client.add_job_flow_steps(
    JobFlowId=cluster_id,
    Steps=[
        {
            'Name': 'string',
            'ActionOnFailure': 'CONTINUE',
            'HadoopJarStep': {
                'Jar': 'command-runner.jar',
                'Args': [
                    '/usr/bin/spark-submit',
                    '--verbose',
                    '--class',
                    'my.spark.job',
                    '--jars', '\'<coma, separated, dependencies>\'',
                    '<my spark job>.jar'
                ]
            }
        },
    ]
)
于 2015-10-26T10:17:51.773 回答