6

我真的很想从网站下载图像,但我不知道很多 wget 这样做。他们将图像托管在一个单独的网站上,我如何使用 cat 或其他东西从网站上提取图像链接,所以我可以使用 wget 来下载它们。我只知道 wget 部分。例如 Reddit.com

  wget -i download-file-list.txt
4

2 回答 2

12

试试这个:

wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path

从页面开始递归1级http://reddit.com/some/path,不会创建目录结构(如果要目录,去掉-nd),只会下载以“jpg”、“jpeg”、“png”、“”结尾的文件gif”或“bmp”。它将跨越主机。

于 2012-07-29T07:16:52.240 回答
2

我会使用perl模块WWW::Mechanize。以下将所有链接转储到stdout

use WWW::Mechanize;

$mech = WWW::Mechanize->new();
$mech->get("URL");
$mech->dump_links(undef, 'absolute' => 1);

替换URL为您想要的实际网址。

于 2012-07-29T09:08:38.243 回答