7

我正在尝试将大型 CSV(~5GB)从 S3 存储桶加载到熊猫中。

以下是我为 1.4 kb 的小型 CSV 尝试的代码:

client = boto3.client('s3') 
obj = client.get_object(Bucket='grocery', Key='stores.csv')
body = obj['Body']
csv_string = body.read().decode('utf-8')
df = pd.read_csv(StringIO(csv_string))

这适用于小型 CSV,但我无法通过此方法将 5GB csv 加载到 pandas 数据帧(可能是由于通过 StringIO 加载 csv 时的内存限制)。

我也试过下面的代码

s3 = boto3.client('s3')
obj = s3.get_object(Bucket='bucket', Key='key')
df = pd.read_csv(obj['Body'])

但这给出了以下错误。

ValueError: Invalid file path or buffer object type: <class 'botocore.response.StreamingBody'>

非常感谢解决此错误的任何帮助。

4

2 回答 2

10

我知道这已经很晚了,但这里有一个答案:

import boto3
bucket='sagemaker-dileepa' # Or whatever you called your bucket
data_key = 'data/stores.csv' # Where the file is within your bucket
data_location = 's3://{}/{}'.format(bucket, data_key)
df = pd.read_csv(data_location)
于 2018-06-01T11:26:57.690 回答
0

我发现将数据“本地”复制到笔记本文件可以更快地读取文件。

于 2020-12-08T20:50:50.910 回答