从 boto3检索 S3 bucket 中的子文件夹名称

使用 boto3,我可以访问我的 AWS S3桶:

s3 = boto3.resource('s3')
bucket = s3.Bucket('my-bucket-name')

现在,bucket 包含文件夹 first-level,它本身包含几个以时间戳命名的子文件夹,例如 1456753904534。 我需要知道这些子文件夹的名称为另一项工作,我正在做,我不知道我是否可以有 boto3为我检索这些。

所以我试着:

objs = bucket.meta.client.list_objects(Bucket='my-bucket-name')

它给出了一个 dictionary,它的键‘ Content’给出了所有的三级文件,而不是二级时间戳目录,实际上我得到了一个包含如下内容的列表

{ u‘ ETag’: ‘ ETag’,u‘ Key’: 第一级/1456753904534/part-00014’,u‘ LastAmendment’: Datetime (2016,2,29,13,52,24,tzinfo = tzutc ()) ,
U‘ Owner’: { u‘ DisplayName’: ‘ Owner’,u‘ ID’: 身份证,
U‘ Size’: Size,u‘ StorageClass’: ‘ storagecclass’}

您可以看到检索到了特定的文件,在本例中是 part-00014,而我希望只获取目录的名称。 原则上,我可以从所有的路径中去掉目录名,但是在第三级检索所有内容以获得第二级是非常丑陋和昂贵的!

我还尝试了一些报告 给你:

for o in bucket.objects.filter(Delimiter='/'):
print(o.key)

但我没有得到所需的文件夹级别。

有办法解决吗?

306341 次浏览

首先,在 S3中没有真正的文件夹概念。 您肯定可以有一个文件@'/folder/subfolder/myfile.txt',没有文件夹或子文件夹。

要在 S3中“模拟”文件夹,必须创建一个名称末尾带有“/”的空文件(参见 Amazon S3 boto-如何创建一个文件夹?)

对于您的问题,您可能应该使用带有两个参数的方法 get_all_keys: prefixdelimiter

Https://github.com/boto/boto/blob/develop/boto/s3/bucket.py#l427

for key in bucket.get_all_keys(prefix='first-level/', delimiter='/'):
print(key.name)

S3是一个对象存储器,它没有真正的目录结构。 人们希望有一个目录结构的原因之一,因为他们可以维护/prune/向应用程序添加一个树。对于 S3,可以将这种结构视为索引或搜索标记的排序。

要在 S3中操作对象,您需要 boto3.client 或 boto3.resource,例如。 列出所有对象

import boto3
s3 = boto3.client("s3")
all_objects = s3.list_objects(Bucket = 'bucket-name')

Http://boto3.readthedocs.org/en/latest/reference/services/s3.html#s3.client.list_objects

实际上,如果 s3对象名称是使用“/”分隔符存储的。最新版本的 list _ Objects (list _ Objects _ v2)允许您将响应限制为以指定前缀开头的键。

将项限制为某些子文件夹下的项:

    import boto3
s3 = boto3.client("s3")
response = s3.list_objects_v2(
Bucket=BUCKET,
Prefix ='DIR1/DIR2',
MaxKeys=100 )

文件

另一种选择是使用 python os.path 函数来提取文件夹前缀。问题是这需要从不需要的目录中列出对象。

import os
s3_key = 'first-level/1456753904534/part-00014'
filename = os.path.basename(s3_key)
foldername = os.path.dirname(s3_key)


# if you are not using conventional delimiter like '#'
s3_key = 'first-level#1456753904534#part-00014'
filename = s3_key.split("#")[-1]

提醒一下 boto3: boto3.resource 是一个不错的高级 API。使用 boto3.client 比使用 boto3.resource 有利有弊。如果您开发内部共享库,那么使用 boto3.resource 将在所使用的资源之上提供一个黑盒层。

下面的代码只返回 s3 bucket 中“文件夹”中的“子文件夹”。

import boto3
bucket = 'my-bucket'
#Make sure you provide / in the end
prefix = 'prefix-name-with-slash/'


client = boto3.client('s3')
result = client.list_objects(Bucket=bucket, Prefix=prefix, Delimiter='/')
for o in result.get('CommonPrefixes'):
print 'sub folder : ', o.get('Prefix')

有关详细信息,请参阅 https://github.com/boto/boto3/issues/134

我花了很多时间才弄明白,但最后这里有一个简单的方法,可以使用 boto3列出 S3 bucket 中子文件夹的内容。希望能有帮助

prefix = "folderone/foldertwo/"
s3 = boto3.resource('s3')
bucket = s3.Bucket(name="bucket_name_here")
FilesNotFound = True
for obj in bucket.objects.filter(Prefix=prefix):
print('{0}:{1}'.format(bucket.name, obj.key))
FilesNotFound = False
if FilesNotFound:
print("ALERT", "No file in {0}/{1}".format(bucket, prefix))

AWS cli 在您运行 aws s3 ls s3://my-bucket/时执行此操作(可能不需要获取和迭代 bucket 中的所有键) ,因此我认为一定有使用 boto3的方法。

Https://github.com/aws/aws-cli/blob/0fedc4c1b6a7aee13e2ed10c3ada778c702c22c3/awscli/customizations/s3/subcommands.py#l499

看起来他们确实使用了前缀和分隔符——我能够编写一个函数,通过稍微修改一下代码,就可以得到桶的根级别的所有目录:

def list_folders_in_bucket(bucket):
paginator = boto3.client('s3').get_paginator('list_objects')
folders = []
iterator = paginator.paginate(Bucket=bucket, Prefix='', Delimiter='/', PaginationConfig={'PageSize': None})
for response_data in iterator:
prefixes = response_data.get('CommonPrefixes', [])
for prefix in prefixes:
prefix_name = prefix['Prefix']
if prefix_name.endswith('/'):
folders.append(prefix_name.rstrip('/'))
return folders

以下对我有用... S3对象:

s3://bucket/
form1/
section11/
file111
file112
section12/
file121
form2/
section21/
file211
file112
section22/
file221
file222
...
...
...

使用:

from boto3.session import Session
s3client = session.client('s3')
resp = s3client.list_objects(Bucket=bucket, Prefix='', Delimiter="/")
forms = [x['Prefix'] for x in resp['CommonPrefixes']]

我们得到:

form1/
form2/
...

配合:

resp = s3client.list_objects(Bucket=bucket, Prefix='form1/', Delimiter="/")
sections = [x['Prefix'] for x in resp['CommonPrefixes']]

我们得到:

form1/section11/
form1/section12/

我有同样的问题,但设法解决它使用 boto3.clientlist_objects_v2BucketStartAfter参数。

s3client = boto3.client('s3')
bucket = 'my-bucket-name'
startAfter = 'firstlevelFolder/secondLevelFolder'


theobjects = s3client.list_objects_v2(Bucket=bucket, StartAfter=startAfter )
for object in theobjects['Contents']:
print object['Key']

上述代码的输出结果将显示如下:

firstlevelFolder/secondLevelFolder/item1
firstlevelFolder/secondLevelFolder/item2

Boto3 list _ Objects _ v2文档

为了只去掉 secondLevelFolder的目录名,我使用了 python 方法 split():

s3client = boto3.client('s3')
bucket = 'my-bucket-name'
startAfter = 'firstlevelFolder/secondLevelFolder'


theobjects = s3client.list_objects_v2(Bucket=bucket, StartAfter=startAfter )
for object in theobjects['Contents']:
direcoryName = object['Key'].encode("string_escape").split('/')
print direcoryName[1]

上述代码的输出结果将显示如下:

secondLevelFolder
secondLevelFolder

Python split ()文档

如果您想获取目录名和内容项目名,那么将打印行替换为以下内容:

print "{}/{}".format(fileName[1], fileName[2])

输出如下:

secondLevelFolder/item2
secondLevelFolder/item2

希望这个能帮上忙

S3最大的实现是没有文件夹/目录,只有键。明显的文件夹结构只是前面的文件名成为“关键”,所以列出 myBucketsome/path/to/the/file/的内容,你可以尝试:

s3 = boto3.client('s3')
for obj in s3.list_objects_v2(Bucket="myBucket", Prefix="some/path/to/the/file/")['Contents']:
print(obj['Key'])

它会给你类似这样的东西:

some/path/to/the/file/yo.jpg
some/path/to/the/file/meAndYou.gif
...

简短的回答 :

  • 使用 Delimiter='/'。这样可以避免对桶执行递归清单。这里的一些答案错误地建议执行完整的列表并使用一些字符串操作来检索目录名称。这可能会非常低效。请记住,S3实际上对一个 bucket 可以包含的对象数量没有限制。所以,想象一下,在 bar/foo/之间,有一万亿个对象: 要等很长时间才能得到 ['bar/', 'foo/']

  • 使用 Paginators。出于同样的原因(S3是一个工程师的无穷大近似值) ,您可以通过页面进行 必须的列表,并避免将所有列表存储在内存中。相反,将您的“ list”视为迭代器,并处理它生成的流。

  • 使用 boto3.client,而不是 boto3.resourceresource版本似乎不能很好地处理 Delimiter选项。如果您有一个资源,比如 bucket = boto3.resource('s3').Bucket(name),您可以使用: bucket.meta.client获得相应的客户端。

长回答 :

下面是我用于简单桶(无版本处理)的迭代器。

import os
import boto3
from collections import namedtuple
from operator import attrgetter




S3Obj = namedtuple('S3Obj', ['key', 'mtime', 'size', 'ETag'])




def s3list(bucket, path, start=None, end=None, recursive=True, list_dirs=True,
list_objs=True, limit=None):
"""
Iterator that lists a bucket's objects under path, (optionally) starting with
start and ending before end.


If recursive is False, then list only the "depth=0" items (dirs and objects).


If recursive is True, then list recursively all objects (no dirs).


Args:
bucket:
a boto3.resource('s3').Bucket().
path:
a directory in the bucket.
start:
optional: start key, inclusive (may be a relative path under path, or
absolute in the bucket)
end:
optional: stop key, exclusive (may be a relative path under path, or
absolute in the bucket)
recursive:
optional, default True. If True, lists only objects. If False, lists
only depth 0 "directories" and objects.
list_dirs:
optional, default True. Has no effect in recursive listing. On
non-recursive listing, if False, then directories are omitted.
list_objs:
optional, default True. If False, then directories are omitted.
limit:
optional. If specified, then lists at most this many items.


Returns:
an iterator of S3Obj.


Examples:
# set up
>>> s3 = boto3.resource('s3')
... bucket = s3.Bucket('bucket-name')


# iterate through all S3 objects under some dir
>>> for p in s3list(bucket, 'some/dir'):
...     print(p)


# iterate through up to 20 S3 objects under some dir, starting with foo_0010
>>> for p in s3list(bucket, 'some/dir', limit=20, start='foo_0010'):
...     print(p)


# non-recursive listing under some dir:
>>> for p in s3list(bucket, 'some/dir', recursive=False):
...     print(p)


# non-recursive listing under some dir, listing only dirs:
>>> for p in s3list(bucket, 'some/dir', recursive=False, list_objs=False):
...     print(p)
"""
kwargs = dict()
if start is not None:
if not start.startswith(path):
start = os.path.join(path, start)
# note: need to use a string just smaller than start, because
# the list_object API specifies that start is excluded (the first
# result is *after* start).
kwargs.update(Marker=__prev_str(start))
if end is not None:
if not end.startswith(path):
end = os.path.join(path, end)
if not recursive:
kwargs.update(Delimiter='/')
if not path.endswith('/'):
path += '/'
kwargs.update(Prefix=path)
if limit is not None:
kwargs.update(PaginationConfig={'MaxItems': limit})


paginator = bucket.meta.client.get_paginator('list_objects')
for resp in paginator.paginate(Bucket=bucket.name, **kwargs):
q = []
if 'CommonPrefixes' in resp and list_dirs:
q = [S3Obj(f['Prefix'], None, None, None) for f in resp['CommonPrefixes']]
if 'Contents' in resp and list_objs:
q += [S3Obj(f['Key'], f['LastModified'], f['Size'], f['ETag']) for f in resp['Contents']]
# note: even with sorted lists, it is faster to sort(a+b)
# than heapq.merge(a, b) at least up to 10K elements in each list
q = sorted(q, key=attrgetter('key'))
if limit is not None:
q = q[:limit]
limit -= len(q)
for p in q:
if end is not None and p.key >= end:
return
yield p




def __prev_str(s):
if len(s) == 0:
return s
s, c = s[:-1], ord(s[-1])
if c > 0:
s += chr(c - 1)
s += ''.join(['\u7FFF' for _ in range(10)])
return s

测试 :

以下内容有助于测试 paginatorlist_objects的行为。它创建大量的目录和文件。因为页面最多有1000个条目,所以我们对目录和文件使用多个条目。dirs只包含目录(每个目录有一个对象)。mixed混合了 dir 和对象,每个 dir 有两个对象(当然还有 dir 下的一个对象; S3只存储对象)。

import concurrent
def genkeys(top='tmp/test', n=2000):
for k in range(n):
if k % 100 == 0:
print(k)
for name in [
os.path.join(top, 'dirs', f'{k:04d}_dir', 'foo'),
os.path.join(top, 'mixed', f'{k:04d}_dir', 'foo'),
os.path.join(top, 'mixed', f'{k:04d}_foo_a'),
os.path.join(top, 'mixed', f'{k:04d}_foo_b'),
]:
yield name




with concurrent.futures.ThreadPoolExecutor(max_workers=32) as executor:
executor.map(lambda name: bucket.put_object(Key=name, Body='hi\n'.encode()), genkeys())

由此产生的结构是:

./dirs/0000_dir/foo
./dirs/0001_dir/foo
./dirs/0002_dir/foo
...
./dirs/1999_dir/foo
./mixed/0000_dir/foo
./mixed/0000_foo_a
./mixed/0000_foo_b
./mixed/0001_dir/foo
./mixed/0001_foo_a
./mixed/0001_foo_b
./mixed/0002_dir/foo
./mixed/0002_foo_a
./mixed/0002_foo_b
...
./mixed/1999_dir/foo
./mixed/1999_foo_a
./mixed/1999_foo_b

稍微修改一下上面为 s3list提供的代码来检查来自 paginator的响应,你可以观察到一些有趣的事实:

  • Marker是真正的独家。给定 Marker=topdir + 'mixed/0500_foo_a'将使清单开始 之后这个键(按照 AmazonS3 API) ,即使用 .../mixed/0500_foo_b。这就是 __prev_str()的原因。

  • 使用 Delimiter,在列出 mixed/时,来自 paginator的每个响应包含666个键和334个常见前缀。它很擅长避免产生巨大的反应。

  • 相比之下,在列出 dirs/时,来自 paginator的每个响应都包含1000个通用前缀(没有键)。

  • 通过 PaginationConfig={'MaxItems': limit}形式的限制只限制键的数量,而不限制通用前缀。我们通过进一步截断迭代器的流来处理这个问题。

为什么不使用 强 > s3path软件包,使它像使用 pathlib一样方便?如果你必须使用 boto3:

使用 boto3.resource

这是在 回答者是伊兹-阿扎尔的基础上构建的,可以应用一个可选的 limit。它显然比 boto3.client版本简单得多。

import logging
from typing import List, Optional


import boto3
from boto3_type_annotations.s3 import ObjectSummary  # pip install boto3_type_annotations


log = logging.getLogger(__name__)
_S3_RESOURCE = boto3.resource("s3")


def s3_list(bucket_name: str, prefix: str, *, limit: Optional[int] = None) -> List[ObjectSummary]:
"""Return a list of S3 object summaries."""
# Ref: https://stackoverflow.com/a/57718002/
return list(_S3_RESOURCE.Bucket(bucket_name).objects.limit(count=limit).filter(Prefix=prefix))




if __name__ == "__main__":
s3_list("noaa-gefs-pds", "gefs.20190828/12/pgrb2a", limit=10_000)

使用 boto3.client

这将使用 list_objects_v2并在 答案由 CpILL 提供的基础上构建,以允许检索1000多个对象。

import logging
from typing import cast, List


import boto3


log = logging.getLogger(__name__)
_S3_CLIENT = boto3.client("s3")


def s3_list(bucket_name: str, prefix: str, *, limit: int = cast(int, float("inf"))) -> List[dict]:
"""Return a list of S3 object summaries."""
# Ref: https://stackoverflow.com/a/57718002/
contents: List[dict] = []
continuation_token = None
if limit <= 0:
return contents
while True:
max_keys = min(1000, limit - len(contents))
request_kwargs = {"Bucket": bucket_name, "Prefix": prefix, "MaxKeys": max_keys}
if continuation_token:
log.info(  # type: ignore
"Listing %s objects in s3://%s/%s using continuation token ending with %s with %s objects listed thus far.",
max_keys, bucket_name, prefix, continuation_token[-6:], len(contents))  # pylint: disable=unsubscriptable-object
response = _S3_CLIENT.list_objects_v2(**request_kwargs, ContinuationToken=continuation_token)
else:
log.info("Listing %s objects in s3://%s/%s with %s objects listed thus far.", max_keys, bucket_name, prefix, len(contents))
response = _S3_CLIENT.list_objects_v2(**request_kwargs)
assert response["ResponseMetadata"]["HTTPStatusCode"] == 200
contents.extend(response["Contents"])
is_truncated = response["IsTruncated"]
if (not is_truncated) or (len(contents) >= limit):
break
continuation_token = response["NextContinuationToken"]
assert len(contents) <= limit
log.info("Returning %s objects from s3://%s/%s.", len(contents), bucket_name, prefix)
return contents




if __name__ == "__main__":
s3_list("noaa-gefs-pds", "gefs.20190828/12/pgrb2a", limit=10_000)

我知道 boto3是这里讨论的主题,但是我发现简单地使用 翻译: 奇芳翻译: 奇芳翻译: 奇芳翻译: 奇芳翻译: 奇芳翻译: 奇芳翻译: 奇芳翻译: 奇芳翻译: 奇芳翻译: 奇芳处理类似的事情通常更快、更直观—— awscli 保留了比 boto3更多的功能。

例如,如果我将对象保存在与给定桶相关联的“子文件夹”中,我可以用下面这样的方法列出所有对象:

1)‘ mydata’= bucket name

2)‘ f1/f2/f3’= “ path”,指向“ files”或 物品

3)‘ foo2.csv,barfar.segy,gar.tar’= 所有“ inside”f3对象

所以,我们可以想到通向这些物体的“绝对路径”是: “ mydata/f1/f2/f3/foo2.csv”。

使用 awscli 命令,我们可以通过以下方式轻松列出给定“子文件夹”中的所有对象:

Aws s3 ls s3://mydata/f1/f2/f3/——递归

下面是一段可以处理分页的代码,如果您试图获取大量的 S3 bucket 对象:

def get_matching_s3_objects(bucket, prefix="", suffix=""):


s3 = boto3.client("s3")
paginator = s3.get_paginator("list_objects_v2")


kwargs = {'Bucket': bucket}


# We can pass the prefix directly to the S3 API.  If the user has passed
# a tuple or list of prefixes, we go through them one by one.
if isinstance(prefix, str):
prefixes = (prefix, )
else:
prefixes = prefix


for key_prefix in prefixes:
kwargs["Prefix"] = key_prefix


for page in paginator.paginate(**kwargs):
try:
contents = page["Contents"]
except KeyError:
return


for obj in contents:
key = obj["Key"]
if key.endswith(suffix):
yield obj

至于 Boto 1.13.3,它就是这么简单(如果你跳过所有的分页注意事项,这在其他答案中已经包含了) :

def get_sub_paths(bucket, prefix):
s3 = boto3.client('s3')
response = s3.list_objects_v2(
Bucket=bucket,
Prefix=prefix,
MaxKeys=1000)
return [item["Prefix"] for item in response['CommonPrefixes']]

这里有一个可能的解决办法:

def download_list_s3_folder(my_bucket,my_folder):
import boto3
s3 = boto3.client('s3')
response = s3.list_objects_v2(
Bucket=my_bucket,
Prefix=my_folder,
MaxKeys=1000)
return [item["Key"] for item in response['Contents']]

使用递归方法列出 S3 bucket 中所有不同的路径。

def common_prefix(bucket_name,paths,prefix=''):
client = boto3.client('s3')
paginator = client.get_paginator('list_objects')
result = paginator.paginate(Bucket=bucket_name, Prefix=prefix, Delimiter='/')
for prefix in result.search('CommonPrefixes'):
if prefix == None:
break
paths.append(prefix.get('Prefix'))
common_prefix(bucket_name,paths,prefix.get('Prefix'))

这对我来说很有效,因为我只检索桶下面的第一级文件夹:

client = boto3.client('s3')
bucket = 'my-bucket-name'
folders = set()


for prefix in client.list_objects(Bucket=bucket, Delimiter='/')['CommonPrefixes']:
folders.add(prefix['Prefix'][:-1])
    

print(folders)

由于文件夹名称是唯一的,因此可以对列表而不是集执行相同的操作

要列出的“ dir”实际上不是对象,而是对象键的子字符串,所以它们不会出现在 objects.filter方法中。您可以在这里使用指定前缀的客户端 list_objects

import boto3


s3 = boto3.resource('s3')
bucket = s3.Bucket('my-bucket-name')
res = bucket.meta.client.list_objects(Bucket=bucket.name, Delimiter='/', Prefix = 'sub-folder/')
for o in res.get('CommonPrefixes'):
print(o.get('Prefix'))

这个问题的一些很好的答案。

我一直在使用 boto3资源 objects.filter方法来获取所有文件。
objects.filter方法以迭代器的形式返回,速度非常快。
虽然将其转换为列表很费时间。

list_objects_v2返回实际内容,而不是迭代器。< br/> 然而,您需要循环获取所有内容,因为它的大小限制为1000。< br/>

为了只得到文件夹,我应用这样的列表内涵

[x.split('/')[index] for x in files]

下面是各种方法所花费的时间。
运行这些测试时,文件数为125077。

%%timeit


s3 = boto3.resource('s3')
response = s3.Bucket('bucket').objects.filter(Prefix='foo/bar/')
3.95 ms ± 17.7 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
%%timeit


s3 = boto3.resource('s3')
response = s3.Bucket('foo').objects.filter(Prefix='foo/bar/')
files = list(response)
26.6 s ± 1.08 s per loop (mean ± std. dev. of 7 runs, 1 loop each)
%%timeit


s3 = boto3.client('s3')
response = s3.list_objects_v2(Bucket='bucket', Prefix='foo/bar/')
files = response['Contents']
while 'NextContinuationToken' in response:
response = s3.list_objects_v2(Bucket='bucket', Prefix='foo/bar/', ContinuationToken=response['NextContinuationToken'])
files.extend(response['Contents'])
22.8 s ± 1.11 s per loop (mean ± std. dev. of 7 runs, 1 loop each)

是的,如前所述,重要的是在 S3中没有真正的文件夹概念。但是让我们看看 S3API 可以使用哪些技巧。

下面的示例是@cem 答案解决方案的改进。

除了@cem 之外,这个解决方案还使用了 S3分页器 API。即使结果包含1000多个对象,解决方案也会收集所有结果。S3分页器 API 自动解析从1001到2000的下一个结果,以此类推。

在本例中,列出了名为“ lala”的特定“文件夹”下的所有“子文件夹”(键)(没有该子文件夹的递归结构)。

前缀 = ‘ lala/’和分隔符 = “/”参数起到了神奇的作用。

# given "folder/key" structure
# .
# ├── lorem.txt
# ├─── lala
# │ ├── folder1
# │ │    ├── file1.txt
# │ │    └── file2.txt
# │ ├── folder2
# │ │    └── file1.txt
# │ └── folder3
# │      └── file1.txt
# └── lorem
#   └── folder4
#        ├── file1.txt
#        └── file2.txt


import boto3


s3 = boto3.client('s3')
paginator = s3.get_paginator('list_objects_v2')


# Execute paginated list_objects_v2
response = paginator.paginate(Bucket='your-bucket-name', Prefix='lala/', Delimiter="/")


# Get prefix for each page result
names = []
for page in response:
names.extend([x['Prefix'] for x in page.get('CommonPrefixes', [])])


print(names)
# Result is:
# ['lala/folder1/','lala/folder2/','lala/folder3/']

这是我在最近的项目中使用的。它使用“ paginator”,即使响应返回超过1000个键,它也能正常工作。

import boto3


def list_folders(s3, bucket_name, prefix="", delimiter="/"):


all = []
paginator = s3.get_paginator("list_objects_v2")
for page in paginator.paginate(Bucket=bucket_name, Prefix=prefix, Delimiter=delimiter):
for common_prefix in page.get("CommonPrefixes", []):
all.append(common_prefix)


return [content.get('Prefix') for content in all]


s3_client = boto3.session.Session(profile_name="my_profile_name", region_name="my_region_name").client('s3')
folders = list_folders(s3_client, "my_bucket_name", prefix="path/to/folder")