1

我有一些文件存储在 Google Cloud Storage 中,我从 Google Cloud Datalab 的 Notebook 运行以下命令:

path = r'data/path/to/csv/orders_1234'
orders_path = os.path.join(bucket_path, path)
print(orders_path)
dest = 'project_name:dataset_name.orders'
%bigquery load -m append -f csv -d '\t' -S $orders_path -D $dest

但是在运行此代码时出现错误Invalid source format CSV 。你知道我在这里可能做错了什么吗?

谢谢!

4

1 回答 1

1

请尝试从datalab 示例笔记本存储库中获取的以下工作示例

import datalab.bigquery as bq
import datalab.storage as storage
import pandas as pd
from StringIO import StringIO

# Create the schema, conveniently using a DataFrame example.
%storage read --object gs://cloud-datalab-samples/cars.csv --variable cars
df = pd.read_csv(StringIO(cars))
schema = bq.Schema.from_dataframe(df)

# Create the dataset
bq.Dataset('sample').create()

# Create the table
sample_table = bq.Table('sample.cars').create(schema = schema, overwrite = True)

# Load csv file from GCS to Google BigQuery
sample_table.load('gs://cloud-datalab-samples/cars.csv', mode='append',
                  source_format = 'csv', csv_options=bq.CSVOptions(skip_leading_rows = 1))   

请注意:如果您运行的是旧版本的 datalab,您可能必须使用import gcp.bigquery as bq而不是import datalab.bigquery as bq

您可能会在BigQuery 控制台的“作业历史记录”页面上看到其他错误消息信息。

于 2016-06-04T15:51:03.703 回答