1

我们使用 Airflow 作为协调器,它每小时安排一次工作流。DataprocSubmitJobOperator 配置为调度 dataproc 作业(它使用 spark)。从源到目标的 Spark 同步数据(运行 50 分钟,然后完成以避免下一次计划重叠)。

由于僵尸异常,间歇性气流任务失败。日志显示由于 pthread_mutex_lock(mu) 而导致的断言失败。气流任务退出。底层 dataproc 作业继续运行而没有问题。

请建议什么可能是潜在的问题/修复?

    [2021-12-22 23:01:17,150] {dataproc.py:1890} INFO - Submitting job

[2021-12-22 23:01:17,804] {dataproc.py:1902} INFO - Job 27a2c88d-1308-4407-b965-aa490e2217fb submitted successfully.
[2021-12-22 23:01:17,805] {dataproc.py:1905} INFO - Waiting for job 27a2c88d-1308-4407-b965-aa490e2217fb to complete
E1222 23:45:58.299007027 1267 sync_posix.cc:67] assertion failed: pthread_mutex_lock(mu) == 0
[2021-12-22 23:46:00,943] {local_task_job.py:102} INFO - Task exited with return code Negsignal.SIGABRT

配置

raw_data_sync = DataprocSubmitJobOperator(
task_id="raw_data_sync",
job=RAW_DATA_GENERATION,
location='us-central1',
project_id='1f780b38bd7b0384e53292de20',
execution_timeout=timedelta(seconds=3420),
dag=dag
)

4

0 回答 0