0

最近,搜索爬虫停止了我的 MOSS 安装。爬取日志中的消息是

访问被拒绝。检查默认内容访问帐户是否有权访问此内容,或添加抓取规则以抓取此内容。(该项目已被删除,因为它要么未找到,要么爬虫被拒绝访问它。)

  • 默认内容帐户是我尝试爬网的网站集的管理员。
  • Google 上此错误的几乎每个结果都告诉我添加值为 1 的 DisableLoobackCheck 注册表项。我已完成此操作并重新启动,错误仍在继续。
  • 我的抓取规则屏幕中的“不允许基本身份验证”复选框未选中。

还有其他可能导致此错误的原因吗?可能具有文件系统或数据库权限的东西?

编辑:所有迹象似乎都表明“DisableLoopbackCheck”应该解决这个问题,但它似乎不起作用。当我启用它时,我会做错什么吗?我在 My Computer\HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Lsa 中执行此操作,我在其中创建了一个名为 DisableLoopbackCheck 的新 DWORD 键,并为其赋予十六进制值 1。

4

1 回答 1

0

事实证明它与 DisableLoopbackCheck 无关。问题是搜索通过其外部 URL 访问该站点。至少在 SP1 之前的 MOSS 中,您不应该能够使用与从外部访问站点相同的 URL 从服务器内部访问站点。但不知何故,我这样做了大约两年。MS Support 告诉我他们不太了解它是如何工作的。所以看起来我遇到了一个应该一直表现出来的问题。我不确定是什么原因导致它突然出现,可能是服务器的一些例行修补。解决方案是扩展 Web 应用程序,以便可以通过机器名称在内部访问它,然后将爬虫指向它。

于 2010-04-19T01:53:16.780 回答