0

我们在将数据插入 BigQuery 时遇到问题。我们位于荷兰。

命令:
adm@la478 ads_csv $ time bq load --debug_mode --skip_leading_rows 1 --max_bad_records 100 --project_id 197553342340 ad_monitoring.ad ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz
BigQuery 加载操作错误:后端错误

指标:
真实 4m35.997s
用户 0m0.963s
sys 0m0.169s

文件大小:
-rw-rw-rw- 1 adm admin 39M Jul 10 17:02 ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz
200MB 未压缩

你能建议使用做什么吗?

4

1 回答 1

1

我正在我们的后端调查这个问题,但如果你通过谷歌存储进行导入,你可能会有更好的运气(尤其是来自欧洲)。如果运行gsutil cp ad_monitoring.ad ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz gs://your_bucket/ad_monitoring.ad ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz,则可以将 bq 命令行更改为:

bq load --debug_mode --skip_leading_rows 1 --max_bad_records 100 --project_id 197553342340 ad_monitoring.ad gs://your_bucket/ad_bd9a6230-2d34-4cf1-8553-04d9c2f8c52b.csv.gz

我正在我们的日志中查找您的作业,看起来最近有一堆加载作业因“TOO_MANY_ERRORS”而失败。如果您使用bq ls -jbq show -j <job_id>您可以获得有关这些的更多信息。

于 2012-07-11T14:04:35.940 回答