我有一个 python 函数,可以将文件从 S3 下载到本地驱动器上的某个临时位置,然后对其进行处理。下载部分如下所示:
def processNewDataFile(key):
## templocation below is just some temp local path
key.get_contents_to_filename(templocation)
## further processing
这key
是要下载的文件的 AWS 密钥。我注意到的是,有时get_contents_to_filename
似乎会冻结。在我的代码的其他部分,如果这些块没有在指定的时间内完成,我有一些解决方案会中断代码块(并引发异常)。这个解决方案在这里很难使用,因为我需要下载的文件大小不同,有时 S3 的响应速度比其他时间慢。
那么是否有任何可靠的中断/超时get_contents_to_filename
方式不涉及硬性预定时间限制?
谢谢