0

我的网站上有一个大型在线游戏中所有项目的非常大的数据库,我的竞争对手也是如此。然而,我是唯一拥有所有这些项目图片的网站。所有这些图片都在我的服务器上,例如。从 1.png 到 99999.png(都在同一个目录中)。

我的竞争对手很容易创建一个简单的 file_get_contents/file_put_contents 脚本来将所有这些图像解析到他们自己的服务器并以自己的方式重新分发它们。对此我能做些什么吗?

有没有办法限制(例如)每个人每分钟只能看到/加载 100 张图像(我确信这些脚本会快速解析所有图像)?或者更好的是,只允许真实用户访问 URL 的?我确定这些脚本不会听 robots.txt 文件,那么更好的解决方案是什么?有人有想法吗?

4

1 回答 1

1

在您的图像中放置水印,说明图像的版权归您或您的公司所有。您的竞争对手将不得不去除水印并使图像看起来从未有过,因此这绝对是一个很好的措施。

如果您使用的是 Apache Web 服务器,请创建一个图像文件夹并上传一个 htaccess 文件,告诉服务器只有您和服务器可以查看这些文件。这将有助于隐藏解析机器人的图像,因为 Apache 会看到它们无权查看文件夹中的内容。您需要让 PHP 加载图像(不仅仅是传递 img 标签),以便就权限系统而言,服务器正在访问原始文件。

在您的 PHP 页面本身上,使用 CAPTCHA 设备或其他一些机器人检测方法。

于 2012-12-12T00:06:20.513 回答