4

是否有某种方法可以使用 .htaccess 文件或类似文件来阻止引用者的访问?我的带宽被来自http://www.dizzler.com的人占用了,这是一个基于 Flash 的网站,允许您浏览已抓取的公开可用 mp3 库。

编辑: Dizzler 仍在进入(可能并非在所有情况下都指示引用者)所以我将所有 mp3 移动到一个新文件夹,禁用目录浏览,并创建了一个 robots.txt 文件以(希望)防止它被索引再次。接受的答案已更改以反映我之前尝试的徒劳:P

4

4 回答 4

3

这就像说您想阻止垃圾邮件机器人在您公开可见的页面上收集电子邮件 - 在不强制您的查看者登录以确认他们的身份的情况下,很难区分用户和机器人。

您可以使用 robots.txt 来禁止实际上遵循这些规则的蜘蛛,但这是在他们这边,而不是在您的服务器那边。有一个页面解释了如何捕捉那些违反规则并明确禁止它们的页面:使用 Apache 阻止坏机器人[evolt.org]

如果您想要一种简单的方法来停止 Dizzler,特别是使用 .htaccess,您应该能够将其弹出并添加:

<Directory /directoryName/subDirectory>
Order Allow,Deny
Allow from all
Deny from 66.232.150.219
</Directory>
于 2008-09-17T08:59:56.487 回答
2

这个站点:(把它放在你的 .htaccess 文件中)

RewriteEngine on
RewriteCond %{HTTP_REFERER} ^http://((www\.)?dizzler\.com [NC]
RewriteRule .* - [F]
于 2008-09-17T08:53:15.300 回答
2

你可以使用类似的东西

SetEnvIfNoCase Referer dizzler.com spammer=yes

Order allow,deny
allow from all
deny from env=spammer

来源:http ://codex.wordpress.org/Combating_Comment_Spam/Denying_Access

于 2008-09-17T08:56:38.553 回答
0

这不是一个非常优雅的解决方案,但您可以阻止网站的爬虫机器人,然后重命名您的 mp3 文件以破坏网站上已有的链接。

于 2008-09-17T08:52:50.700 回答