我的目标是创建一个大的压缩文本文件并将其放入 S3。
文件内容由我从另一个来源循环读取的块组成。
由于此文件的大小,我无法将所有数据保存在内存中,因此我需要以某种方式同时将其直接流式传输到 S3 和 ZIP。
我了解如何使用fs
Node.JS 中的常规执行此技巧,但我很困惑是否可以使用 AWS Lambda 中的 S3 执行相同的技巧?我知道s3.putObject
可以消费 streamObject
,但在我看来,当我执行操作时,这个流应该已经完成putObject
,什么会导致超出允许的内存。