FAST Search Crawl在本地文件系统上失败,错误为0x80040d07

时间:2011-03-06 12:24:03

标签: sharepoint sharepoint-2010 fast-esp fastsearch

我已在我的计算机上成功安装了Sharepoint 2010和FAST Search for Sharepoint 2010。通过抓取sharepoint站点似乎可以正常工作,但抓取本地文件系统会导致失败,如下所示:

The start address unknown://win-fs/C:/Users/ravish/FAST_TEST_SET cannot be crawled.

Context: Application 'FAST_Content_SSA', Catalog 'Portal_Content'

Details:
    Item not crawled due to one of the following reasons: Preventive crawl rule; Specified content source hops/depth exceeded; URL has query string parameter; Required protocol handler not found; Preventive robots directive.   (0x80040d07)

我从事件视图应用程序日志中得到了这个。我已确保将权限设置为允许对运行服务的用户进行读取,列出和执行访问。还尝试更新爬行规则等,使它们非常自由。

我在Content Source中尝试过的网址是: //赢得-FS / C:/用户/强夺/ FAST_TEST_SET 文件://赢得-FS / C:/用户/强夺/ FAST_TEST_SET 文件:\取胜-FS \ C:\用户\奸污\ FAST_TEST_SET

到目前为止似乎没有任何作用。一直在努力寻找答案,发现很多用户遇到类似的问题,但没有具体的直接回复它。我已经花了几个小时,所以任何帮助都会受到赞赏。

我的系统详情: Windows Server 2008 R2 Sharepoint Enterprise 2010 快速搜索2010

(全部安装在单台笔记本电脑上)

2 个答案:

答案 0 :(得分:0)

我没有使用快速的sharepoint版本,但我认为爬虫与早期版本的独立快速版本大致相同。在这种情况下 - 我猜它本身就无法抓取文件系统,因为它是为了处理和爬行而通过http& html ...解析页面,以下链接等。

您可以设置本地网络服务器&允许目录索引,然后以这种方式抓取“网站”。或者您可以使用Everything中嵌入的网络服务器并再次...抓取本地网站(或所需的子集)。

答案 1 :(得分:0)

好吧,我想我现在已经拿到了它,重新启动了机器,并尝试了以下格式,并且瞧它工作了!

文件:// WIN-FS /用户/强夺/ FAST_TEST_SET

无法相信SP对于路径有多挑剔!