2

我想使用 wget 递归下载一个完整的网页。例如,如果 2 级深度的页面包含指向 1 级页面的链接(已经下载),wget 会再次下载它们吗?如果是这样,有没有办法防止这种情况发生?

手动的类似 wget 的脚本会比 wget 更优化,还是优化以避免一遍又一遍地下载东西?(我特别担心出现在所有页面上的菜单链接)

先感谢您

4

1 回答 1

1

一次 wget 运行不应该尝试两次下载同一个页面。如果是这样,它对镜像就不是很有用了。:) 它还有一些其他的故障保护,比如拒绝递归到另一个域或更高的目录。

如果你想确定它在做正确的事情,我建议只是尝试一下并观察它的作用;你可以随时捣碎^C

于 2013-11-07T22:20:37.190 回答