0

我想下载一个网站以将其白化为专用网络。

我知道 StackOverflow 本身已经做了很多事情,我只是不知道自己该怎么做。

我要下载的特定站点是CPP-QUIZ,其中包含所有问题和解释。

我试过用 HTTrack 来做,但它似乎只下载了几个问题,然后就失败了。

通常会做什么来做这样的事情?

4

2 回答 2

0

您可以使用wgetcurl之类的工具。如果站点有索引,那么您可以使用 wget 的递归选项。似乎没有(主页似乎只是为该特定站点随机选择一个问题)。

在这种情况下,您可以开始生成命令:

wget http://cppquiz.org/quiz/question/1
wget http://cppquiz.org/quiz/question/2
wget http://cppquiz.org/quiz/question/3

等等。运行这些命令后,您会将文件下载到运行命令的目录中。

于 2016-01-15T13:08:06.390 回答
0

我也想知道同样的事情,本周偶然发现了这个名为 Diskernet 的 Github 项目

  • 当您使用 Web 浏览器进行浏览时,它会将资源保存到您的文件系统(使用 diskernet 二进制文件或 CLI 工具启动时)

这仍然是一个早期项目,但我发现我这周已经开始使用它并且效果很好!

强调:

  • 能够下载单页 Web 应用程序(不使用wget
  • 下载网站后,它可以离线使用

有像 SiteSucker 这样的替代工具,但我发现 Diskernet 甚至适用于需要身份验证的网站

于 2022-01-09T01:56:34.527 回答