我的网站上有一个大型在线游戏中所有项目的非常大的数据库,我的竞争对手也是如此。然而,我是唯一拥有所有这些项目图片的网站。所有这些图片都在我的服务器上,例如。从 1.png 到 99999.png(都在同一个目录中)。
我的竞争对手很容易创建一个简单的 file_get_contents/file_put_contents 脚本来将所有这些图像解析到他们自己的服务器并以自己的方式重新分发它们。对此我能做些什么吗?
有没有办法限制(例如)每个人每分钟只能看到/加载 100 张图像(我确信这些脚本会快速解析所有图像)?或者更好的是,只允许真实用户访问 URL 的?我确定这些脚本不会听 robots.txt 文件,那么更好的解决方案是什么?有人有想法吗?