我无法评论通过网络提交大文件时可能存在的可靠性或连接问题(一篇引用的帖子暗示了问题)。但这里有一些经验数据,您可能会觉得有用(或没用)。
我今天一直在做一些测试,研究磁盘寻道时间,因此手头有一个相当好的测试用例。我发现您的问题很有趣,因此我对正在使用/修改的文件进行了快速测试。我创建了一个本地 Subversion 存储库并向其中添加了两个二进制文件(大小如下所示),然后在对它们进行更改后提交了几次文件。较小的二进制文件 (.85 GB) 只是每次都将数据添加到它的末尾。较大的文件 (2.2GB) 包含表示由“随机”整数数据组成的 b 树的数据。在提交之间对该文件的更新涉及添加大约 4000 个新的随机值,因此修改后的节点会在整个文件中稍微均匀分布。
以下是提交后原始文件大小以及本地 subversion 存储库中所有文件的大小/数量:
file1 851,271,675
file2 2,205,798,400
1,892,512,437 bytes in 32 files and 32 dirs
第二次提交后:
file1 851,287,155
file2 2,207,569,920
1,894,211,472 bytes in 34 files and 32 dirs
第三次提交后:
file1 851,308,845
file2 2,210,174,976
1,897,510,389 bytes in 36 files and 32 dirs
提交有些冗长。我没有密切关注,因为我正在做其他工作,但我认为每个人可能需要 10 分钟。检查一个特定的版本大约需要 5 分钟。我不会根据我的结果以一种或另一种方式提出建议。我只能说它似乎工作正常并且没有发生错误。并且文件差异似乎运作良好(对于这些文件)。