1

我正在尝试使用 Dask 从谷歌存储桶中读取和写入。使用一堆csv文件有效,但不方便(速度较慢,无法压缩,无法仅读取某些列),因此我尝试使用该apache parquet格式。

写作似乎工作正常:

import dask.dataframe as dd
pandas_df = pd.DataFrame({'x' : [2,3, 2], 'y': [1, 0, 0]})
dask_df = dd.from_pandas(pandas_df, npartitions=2)
dask_df.to_parquet("gcs://my_google_bucket/test/")

但是当我试图读回来

read_again_df = dd.read_parquet("gcs://my_google_bucket/test/") 

我收到一个未实现的错误:

AttributeError                            Traceback (most recent call last)
~/miniconda3/envs/env1/lib/python3.6/site-packages/dask/bytes/core.py in get_pyarrow_filesystem(fs)
    520     try:
--> 521         return fs._get_pyarrow_filesystem()
    522     except AttributeError:

AttributeError: 'DaskGCSFileSystem' object has no attribute '_get_pyarrow_filesystem'

During handling of the above exception, another exception occurred:

NotImplementedError                       Traceback (most recent call last)
<ipython-input-42-ef1fc41d04d5> in <module>()
----> 1 read_again = dd.read_parquet("gcs://my_google_bucket/test/")

~/miniconda3/envs/env1/lib/python3.6/site-packages/dask/dataframe/io/parquet.py in read_parquet(path, columns, filters, categories, index, storage_options, engine, infer_divisions)
    991 
    992     return read(fs, fs_token, paths, columns=columns, filters=filters,
--> 993                 categories=categories, index=index, infer_divisions=infer_divisions)
    994 
    995 

~/miniconda3/envs/env1/lib/python3.6/site-packages/dask/dataframe/io/parquet.py in _read_pyarrow(fs, fs_token, paths, columns, filters, categories, index, infer_divisions)
    505         columns = list(columns)
    506 
--> 507     dataset = pq.ParquetDataset(paths, filesystem=get_pyarrow_filesystem(fs))
    508     if dataset.partitions is not None:
    509         partitions = [n for n in dataset.partitions.partition_names

~/miniconda3/envs/env1/lib/python3.6/site-packages/dask/bytes/core.py in get_pyarrow_filesystem(fs)
    522     except AttributeError:
    523         raise NotImplementedError("Using pyarrow with a %r "
--> 524                                   "filesystem object" % type(fs).__name__)

NotImplementedError: Using pyarrow with a 'DaskGCSFileSystem' filesystem object

我猜这意味着dask仍然无法直接从谷歌云服务读取镶木地板文件。是否有任何间接的方法可以使用,例如使用pyarrow

我想要保留的是延迟加载事物然后dask用于进行数据转换的能力。

谢谢!

4

1 回答 1

4

Dask 当然可以使用 fastparquet 后端 ( engine='fastparquet') 从 GCS 读取 parquet。请注意,pyarrow 不会_metadata生成 fastparquet 期望的文件,因此您可以使用 fastparquet 写入数据,使用 fastparquet 从现有数据文件创建文件,或者传递指向所有数据文件的 glob 字符串而不是目录。

您正在做的事情也应该与 pyarrow 一起使用,因为 pyarrow 通常可以接受任何类似 python 文件的对象,但在这种情况下,似乎是在尝试创建一个 pyarrow 文件系统。您在上面看到的错误可能是一个错误,应该进行调查。

-编辑-

根据OP的评论,以下确实有效

pandas_df = pd.DataFrame({'x' : [2,3, 2], 'y': [1, 0, 0]}) 
dask_df = dd.from_pandas(pandas_df, npartitions=2) 
dask_df.to_parquet("gcs://my_bucket/test", engine='fastparquet') 
read_again_df = dd.read_parquet("gcs://my_bucket/test/", engine='fastparquet')

请注意,由于某些错误的原因,dask_df.to_parquet()需要使用“gcs://my_bucket/test”调用,没有“/”,否则dd.read_parquet()不起作用

于 2018-09-24T16:02:22.817 回答