语境
我的目标是用新的数据库更新 20 个开发环境,并尽可能快速和可靠地完成。我们生成一个 BAK,将其放入文件存储中,然后尝试(很差地)将其放到所有盒子上,然后我远程触发所有盒子上的卸载旧 / 挂载新的。
试图
现在我有以下作为 Powershell 工作流:
Write-Output "Beginning workflow."
foreach -parallel ($dir in $destinations)
{
$targetFile = "$dir\$sourcePattern"
Write-Output "Checking: $targetFile"
InlineScript{
$fileExists = Test-Path $Using:targetFile
if ($fileExists -eq $false){
Write-Output "Copying to: $using:targetFile"
&"$Using:AzCopyPath" /Source:"$Using:sourceDirectory" /Dest:$Using:dir /SourceKey:$Using:sourceKey /Pattern:"$Using:sourcePattern" /Z:$journalPath
Write-Output "Copied to: " $Using:targetFile
} else{
Write-Output "Already copied: " $Using:targetFile
}
这对于小型文本文件非常有效,但对于大约 400GB 的数据库备份,它并没有那么大,因为主机完全不堪重负。
使用 AZCopy 以自动化和并行方式将大文件复制到大约 20 台机器的最明智的方法是什么?