我有一个COPY
在写入部分失败的 Spark 作业。我已经在 S3 中处理了所有输出,但是在弄清楚如何手动加载它时遇到了麻烦。
COPY table
FROM 's3://bucket/a7da09eb-4220-4ebe-8794-e71bd53b11bd/part-'
CREDENTIALS 'aws_access_key_id=XXX;aws_secret_access_key=XXX'
format as AVRO 'auto'
在我的文件夹中有一个_SUCCESS
,_committedxxx
和_startedxxx
文件,然后是 99 个文件都以前缀开头part-
。当我运行它时,我得到一个stl_load_error
->Invalid AVRO file found. Unexpected end of AVRO file.
如果我去掉那个前缀,那么我得到:
[XX000] ERROR: Invalid AVRO file Detail: ----------------------------------------------- error: Invalid AVRO file code: 8001 context: Cannot init avro reader from s3 file Incorrect Avro container file magic number query: 10882709 location: avropath_request.cpp:432 process: query23_27 [pid=10653] -----------------------------------------------
这可能吗?保存处理会很好。