0

我想从 www.explosm.net/comics 复制每日漫画并存储在本地文件夹中。

漫画具有独特的名称,并根据创作者的不同存储在多个位置。

像这样:

  • www.explosm.net/db/files/Comics/Rob/comic1.png
  • www.explosm.net/db/files/Comics/Dave/comic2.png

但是,每部每日漫画都可以通过相同的网址 www.explosm.net/comics 获得,该网址会将您重定向到最新的漫画。不过,不确定这是否有用。

我已经使用 wget 命令和 cron 来实现这一点,但我缺乏知识并没有给我带来任何令人满意的结果。

提前致谢。

4

1 回答 1

0

您可能想查看cURL。您需要的是一个脚本,它在您请求 www.explosm.net/comics 时调用 cURL 以获取服务器提供的页面源。然后,您将解析返回的数据以查找img显示漫画的标签。

获得相关标签的src属性后img,您可以使用 cURL 发出另一个请求,以实际下载图像并将返回的数据保存到本地文件中。

看起来实际漫画图像的来源,即您要查找的图像的开头,http://www.explosm.net/db/files/Comics因此您可以使用如下所示的正则表达式来确定要下载的图像的 URL。

src\=\"(http:\/\/www\.explosm\.net\/db\/files\/Comics\/[^"]*)\"

URL 将成为匹配项中的第一组。

于 2011-03-02T17:41:17.543 回答