Bitbucket 令人担忧的是我的 Git 存储库超过 1 GB。实际上,在存储库详细信息页面中它说它是1.7 GB。太疯狂了。我必须在版本控制中包含大型数据文件。我的本地存储库实际上是10 GB,这意味着至少我已经在.gitignore
某种程度上成功地使用了从版本控制中排除大文件。
接下来,我按照这里的教程https://confluence.atlassian.com/display/BITBUCKET/Reduce+repository+size并尝试删除未使用的大数据。files.git count-objects -v
我的仓库顶层文件夹中的命令返回以下内容:
count: 5149
size: 1339824
in-pack: 11352
packs: 2
size-pack: 183607
prune-packable: 0
garbage: 0
size-garbage: 0
大小包183607 KB远小于 1.7 GB。我有点困惑。
接下来,我下载了BFG Repo Cleaner https://rtyley.github.io/bfg-repo-cleanerjava -jar bfg-1.12.3.jar --strip-blobs-bigger-than 100M
并在顶级目录中运行命令以从所有非最新提交中删除大于 100 MB 的文件。但是,BFG 返回以下消息:
Warning : no large blobs matching criteria found in packfiles
- does the repo need to be packed?
对 50M 重复相同的结果是相同的。
这是否意味着所有大于 50 MB 的文件都在最新提交中?在 Bitbucket 的源代码浏览器中,我查看了包含大型数据文件但不包含这些文件的文件夹(成功忽略)。
谁能简要解释一下关于存储库大小和存储库中大文件存在的混淆来源是什么?