5

我想下载http://source.yeeyan.org的所有段落。它有很多页面。eg http://source.yeeyan.org/?page=22202 那么如何使用 wget 或者 linux 中的其他工具下载下来呢?目前,我使用以下参数,但它不起作用。

wget --recursive --no-clobber --page-requisites --html-extension --convert-links --restrict-file-names=windows --domains yeeyan.org --no-parent source.yeeyan.org

4

1 回答 1

4

作为 wget 的替代方案,还有httrack,其唯一目的是复制网站,因此可能更适合您。它也有一个图形用户界面。

于 2012-05-25T08:57:51.663 回答