我真的很想从网站下载图像,但我不知道很多 wget 这样做。他们将图像托管在一个单独的网站上,我如何使用 cat 或其他东西从网站上提取图像链接,所以我可以使用 wget 来下载它们。我只知道 wget 部分。例如 Reddit.com
wget -i download-file-list.txt
试试这个:
wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path
从页面开始递归1级http://reddit.com/some/path
,不会创建目录结构(如果要目录,去掉-nd
),只会下载以“jpg”、“jpeg”、“png”、“”结尾的文件gif”或“bmp”。它将跨越主机。
我会使用perl
模块WWW::Mechanize
。以下将所有链接转储到stdout
:
use WWW::Mechanize;
$mech = WWW::Mechanize->new();
$mech->get("URL");
$mech->dump_links(undef, 'absolute' => 1);
替换URL
为您想要的实际网址。