我在 s3 中创建了一个名为“test”的文件夹,并将“test_1.jpg”、“test_2.jpg”推送到“test”中。
如何使用 boto 删除文件夹“test”?
我在 s3 中创建了一个名为“test”的文件夹,并将“test_1.jpg”、“test_2.jpg”推送到“test”中。
如何使用 boto 删除文件夹“test”?
这是2018(几乎是2019)版本:
s3 = boto3.resource('s3')
bucket = s3.Bucket('mybucket')
bucket.objects.filter(Prefix="myprefix/").delete()
S3中没有文件夹。相反,这些键形成了一个平面命名空间。但是,名称中带有斜杠的键会在某些程序中特别显示,包括 AWS 控制台(参见例如Amazon S3 boto - 如何创建文件夹?)。
您可以(并且必须)按前缀列出文件并删除,而不是删除“目录”。在本质上:
for key in bucket.list(prefix='your/directory/'):
key.delete()
但是,此页面上其他已完成的答案具有更有效的方法。
请注意,仅使用虚拟字符串搜索来搜索前缀。如果前缀是,也就是说,没有附加斜杠,程序也会愉快地删除your/directory
your/directory-that-you-wanted-to-remove-is-definitely-not-this-one
。
有关更多信息,请参阅S3 boto 列表键有时会返回目录键。
我觉得已经有一段时间了,boto3 有几种不同的方式来实现这个目标。这假设您要删除测试“文件夹”及其所有对象这是一种方法:
s3 = boto3.resource('s3')
objects_to_delete = s3.meta.client.list_objects(Bucket="MyBucket", Prefix="myfolder/test/")
delete_keys = {'Objects' : []}
delete_keys['Objects'] = [{'Key' : k} for k in [obj['Key'] for obj in objects_to_delete.get('Contents', [])]]
s3.meta.client.delete_objects(Bucket="MyBucket", Delete=delete_keys)
这应该发出两个请求,一个是获取文件夹中的对象,第二个是删除所述文件夹中的所有对象。
https://boto3.readthedocs.org/en/latest/reference/services/s3.html#S3.Client.delete_objects
帕特里克的解决方案略有改进。您可能知道,两者list_objects()
的delete_objects()
对象限制为 1000。这就是为什么您必须对列表进行分页并分块删除的原因。这是非常普遍的,您可以Prefix
删除paginator.paginate()
子目录/路径
client = boto3.client('s3', **credentials)
paginator = client.get_paginator('list_objects_v2')
pages = paginator.paginate(Bucket=self.bucket_name)
delete_us = dict(Objects=[])
for item in pages.search('Contents'):
delete_us['Objects'].append(dict(Key=item['Key']))
# flush once aws limit reached
if len(delete_us['Objects']) >= 1000:
client.delete_objects(Bucket=bucket, Delete=delete_us)
delete_us = dict(Objects=[])
# flush rest
if len(delete_us['Objects']):
client.delete_objects(Bucket=bucket, Delete=delete_us)
您可以将bucket.delete_keys()与键列表一起使用(对于大量的键,我发现这比使用 key.delete 快一个数量级)。
像这样的东西:
delete_key_list = []
for key in bucket.list(prefix='/your/directory/'):
delete_key_list.append(key)
if len(delete_key_list) > 100:
bucket.delete_keys(delete_key_list)
delete_key_list = []
if len(delete_key_list) > 0:
bucket.delete_keys(delete_key_list)
如果在 S3 存储桶上启用了版本控制:
s3 = boto3.resource('s3')
bucket = s3.Bucket('mybucket')
bucket.object_versions.filter(Prefix="myprefix/").delete()
如果需要像我一样按对象内容过滤,以下是您的逻辑蓝图:
def get_s3_objects_batches(s3: S3Client, **base_kwargs):
kwargs = dict(MaxKeys=1000, **base_kwargs)
while True:
response = s3.list_objects_v2(**kwargs)
# to yield each and every file: yield from response.get('Contents', [])
yield response.get('Contents', [])
if not response.get('IsTruncated'): # At the end of the list?
break
continuation_token = response.get('NextContinuationToken')
kwargs['ContinuationToken'] = continuation_token
def your_filter(b):
raise NotImplementedError()
session = boto3.session.Session(profile_name=profile_name)
s3client = session.client('s3')
for batch in get_s3_objects_batches(s3client, Bucket=bucket_name, Prefix=prefix):
to_delete = [{'Key': obj['Key']} for obj in batch if your_filter(obj)]
if to_delete:
s3client.delete_objects(Bucket=bucket_name, Delete={'Objects': to_delete})