3

我正在使用 Dask 导入一个非常大的 csv 文件 ~680GB,但是,输出不是我所期望的。我的目标是只选择一些列(6/50),并可能过滤它们(我不确定,因为似乎没有数据?):

import dask.dataframe as dd

file_path = "/Volumes/Seagate/Work/Tickets/Third ticket/Extinction/species_all.csv"

cols = ['year', 'species', 'occurrenceStatus', 'individualCount', 'decimalLongitude', 'decimalLatitde']
dataset = dd.read_csv(file_path, names=cols,usecols=[9, 18, 19, 21, 22, 32])

当我将它读入 Jupyter 时,我无法理解输出 - 控制台输出:

Dask DataFrame Structure:
                     year species occurrenceStatus individualCount decimalLongitude decimalLatitde
npartitions=11397                                                                                 
                   object  object           object          object           object         object
                      ...     ...              ...             ...              ...            ...
...                   ...     ...              ...             ...              ...            ...
                      ...     ...              ...             ...              ...            ...
                      ...     ...              ...             ...              ...            ...
Dask Name: read-csv, 11397 tasks
4

2 回答 2

1

看起来您已经成功创建了一个 dask 数据框。如果您期待类似 pandas 数据框的东西,那么您可以使用dataset.head(). 对于更多涉及的计算,最好保持数据集惰性(作为 dask 数据框),并pandas为所有转换使用标准语法。

# this is needed to call dask.compute
import dask

# for example take a subset
subset_data = dataset[dataset['year']>2000]

# find out the total value for this column
lazy_result = subset_data['individualCount'].sum()

# now that the target is known use .compute
computed_result = dask.compute(lazy_result)

除了 dask,您还可以查看vaex,出于某些目的可能会更好:https ://vaex.io/

于 2021-07-02T22:04:56.177 回答
0

1. 懒惰计算

达斯克懒洋洋地评估。单独调用dataset不会触发任何计算。您需要调用dataset.compute()dataset.persist()触发计算并检查数据框。现有答案的建议使用dataframe.head()本质上是调用.compute()数据的子集。在 Dask 文档中阅读更多关于这意味着什么

2. 列修剪

您可能需要考虑将数据集转换为 Parquet。来自此资源:“Parquet 可让您从数据集中读取特定列,而无需读取整个文件。这称为列修剪,可以显着提高性能。”

玩具代码示例

# read in your csv
dataset= dd.read_csv('your.csv')

# store as parquet
dataset.to_parquet('your.parquet', engine='pyarrow')

# read in parquet file with selected columns
dataset = dd.read_parquet('your.parquet', columns=list_of_columns)
dataset.head()
于 2021-10-07T08:39:52.370 回答