0

我需要一些方法来使用 php 或 linux 命令行复制和保存网站以供“离线使用”。就像用浏览器保存链接一样,它会重写图像标签并下载它们。

问题是当我找到解决问题的方法时,我通常会将链接保存在某处。随之而来的问题是有时链接会死掉,所以我不能再访问它们了。

所以我在想的是创建一个工具,在我的服务器上为我保存页面并使用该 url。

我知道如何使用 file_get_contents 来获取文本/html,并且大多数情况下都有效,但我想,因为我正在创建一个工具,所以它也可以下载图像。我想用浏览器保存它并上传它,但我想要一种更干净的方法来做到这一点。

如果有人知道一些图书馆或类似的东西,请帮助我。

谢谢 !

4

3 回答 3

1

您可能想查看wget是否在您的 Web 服务器上可用,因为它有一些非常有用的选项。其中之一是可以选择使用链接翻译制作网站的离线副本,以便网站可以在本地使用。

wget --domains example.com --recursive --html-extension --page-requisites --convert-links

如果您尝试创建子文件夹的脱机副本(比如说example.com/test/),请添加--no-parent以防止 wget 报废父文件夹。

您可以通过 bash 脚本自行运行报废过程,也可以通过 PHP 使用exec()调用它。

于 2012-12-16T20:23:02.143 回答
1

您应该查看可能是您正在寻找的cURL库。

文档中还指定了一个基本示例。

于 2012-12-16T20:12:08.273 回答
0

你可以考虑使用这个:http ://www.httrack.com/

于 2012-12-16T20:31:31.600 回答