0

我已经在我的机器上成功安装了 Sharepoint 2010 和 FAST Search for Sharepoint 2010。抓取共享点站点似乎一切正常,但抓取本地文件系统一直失败,如下所示:

The start address unknown://win-fs/C:/Users/ravish/FAST_TEST_SET cannot be crawled.

Context: Application 'FAST_Content_SSA', Catalog 'Portal_Content'

Details:
    Item not crawled due to one of the following reasons: Preventive crawl rule; Specified content source hops/depth exceeded; URL has query string parameter; Required protocol handler not found; Preventive robots directive.   (0x80040d07)

我从事件视图应用程序日志中得到了这个。我已确保将权限设置为允许对运行服务的用户进行读取、列出和执行访问。还尝试更新爬网规则等以使它们非常自由。

我在 Content Source 中尝试过的 URL 是://win-fs/C:/Users/ravish/FAST_TEST_SET file://win-fs/C:/Users/ravish/FAST_TEST_SET file:\win-fs\C:\用户\狂喜\FAST_TEST_SET

到目前为止似乎没有任何效果。一直在网上苦苦寻找答案,发现许多用户有类似的问题,但没有具体的直接回复。我已经花了几个小时,所以任何帮助将不胜感激。

我的系统详情:Windows Server 2008 R2 Sharepoint Enterprise 2010 FAST Search 2010

(全部安装在一台笔记本电脑上)

4

2 回答 2

0

我没有使用过fast的sharepoint版本,但我认为爬虫与之前版本的standalone fast中的爬虫大致相同。在这种情况下 - 我猜它本身将无法抓取文件系统,因为它是为通过 http 和 html 处理和抓取而构建的......解析页面,跟踪链接等。

您也许可以设置本地网络服务器并允许目录索引,然后以这种方式抓取“站点”。或者您可以使用嵌入在Everything中的网络服务器并再次...爬取本地站点(或所需的子集)。

于 2011-03-06T18:22:45.597 回答
0

好的,我想我现在明白了,重新启动机器并尝试以下格式,瞧,它起作用了!

文件://WIN-FS/Users/ravish/FAST_TEST_SET

无法相信 SP 对路径有多么挑剔!

于 2011-03-10T19:31:25.257 回答