我想设置运行几个 python 脚本的 AWS Batch 来对从 S3 获取的文件执行一些批处理操作,并对它们需要保存到一个卷进行后处理。
为此,我想在 AWS 批处理中配置计算环境。
我希望使用现场实例,但我需要我的 EBS 卷在实例终止后仍然存在,如果新实例启动,它必须安装与以前使用的相同的卷。
我想设置运行几个 python 脚本的 AWS Batch 来对从 S3 获取的文件执行一些批处理操作,并对它们需要保存到一个卷进行后处理。
为此,我想在 AWS 批处理中配置计算环境。
我希望使用现场实例,但我需要我的 EBS 卷在实例终止后仍然存在,如果新实例启动,它必须安装与以前使用的相同的卷。
为上述案例创建一个实例模板,提供一个引导脚本,例如:
sudo mkdir -p /<any directory name where volume will be mounted eg: dir>
aws ec2 attach-volume --volume-id <volume_id> --instance-id $(wget -q -O - http://169.254.169.254/latest/meta-data/instance-id) --device /dev/sdf
sudo mount /dev/sdf /<above mentioned dir rg :dir>
在 AWS 批处理定义中,使用上述模板启动您的 ec2 机器。