SLURM(特别是 sbatch)是否应该自动将用户脚本(而不是作业配置脚本)复制到集群的计算节点以执行?从我的登录节点执行 sbatch 文件后,输出文件会在我的一个计算节点上创建,但包含以下内容:
ERROR: could not open file /home/pi/slurm.jl
Stacktrace:
[1] include at ./boot.jl:328 [inlined]
[2] include_relative(::Module, ::String) at ./loading.jl:1105
[3] include(::Module, ::String) at ./Base.jl:31
[4] exec_options(::Base.JLOptions) at ./client.jl:287
[5] _start() at ./client.jl:460
我正在运行批处理脚本sbatch julia.sbatch
。
julia.sbatch:
#!/bin/bash
#SBATCH --nodes=4
#SBATCH --ntasks=4
#SBATCH --time=00:15:00
#SBATCH --output=julia.out
#SBATCH --job-name=julia-job
julia slurm.jl
或者脚本 (slurm.jl) 是否应该位于所有节点都可以访问的共享存储上?