我需要一些方法来使用 php 或 linux 命令行复制和保存网站以供“离线使用”。就像用浏览器保存链接一样,它会重写图像标签并下载它们。
问题是当我找到解决问题的方法时,我通常会将链接保存在某处。随之而来的问题是有时链接会死掉,所以我不能再访问它们了。
所以我在想的是创建一个工具,在我的服务器上为我保存页面并使用该 url。
我知道如何使用 file_get_contents 来获取文本/html,并且大多数情况下都有效,但我想,因为我正在创建一个工具,所以它也可以下载图像。我想用浏览器保存它并上传它,但我想要一种更干净的方法来做到这一点。
如果有人知道一些图书馆或类似的东西,请帮助我。
谢谢 !