Ajax生成内容,抓取和黑名单

时间:2011-02-15 13:02:11

标签: ajax seo web-crawler blacklist

我的网站使用ajax。

我有一个用户列表页面,用于列出ajax表中的用户(包含分页和更多信息......)。

此页面的网址是: /用户列表

用户列表由ajax创建。当用户点击一个用户时,他被重定向到一个页面,其URL为:/ member / memberName

所以我们在这里可以看到ajax用于生成内容而不是用于管理导航(使用#字符)。

我想检测机器人以索引所有页面。

所以,在ajax中我想显示一个带分页的ajax表和酷ajax effetcs(更多信息...)当我检测到一个机器人时,我想要显示所有用户(没有分页),并带有指向成员页面的链接像这样:

<a href="/member/john">John</a><a href="/member/bob">Bob</a>...

你认为我可以用这种技术黑名单吗?如果你这么认为,请你提供一个替代解决方案,保持这些干净的URL并且不重新开发用户列表(没有ajax)?

2 个答案:

答案 0 :(得分:3)

Google支持使AJAX可抓取的规范:

http://code.google.com/web/ajaxcrawling/docs/specification.html

我做了一个实验并且有效:

http://seo-website-designer.com/SEO-Ajax-Google-Solution

由于这是Google规范,因此您不会受到处罚(除非您滥用它)。

说,目前只有Google支持它(AFAIK)。

此外,我相信遵循渐进增强的概念是一种更好的方法。也就是说,创建一个有效的html网站然后让JavaScript增强它

答案 1 :(得分:0)

也许使用带有onclick的<a href=""></a>网址来触发你的AJAX脚本?像

<a href="/some/url" onclick="YourFancyFunction();return false;">Some URL</a>

我认为谷歌不会因此而惩罚你,你主要使用JScript,但你确实为他们的机器人提供了退款,因此你的网站不会被访问。

修改
好吧,我误解了。然后我的猜测是你基本上有两个选择:
1.写下您的网站的不同部分,机器人最终,或, 2.重写您当前的网站,例如总是给出一个“完整”页面,并选择只获取内容div。然后,您只能使用JavaScript获取内容,但机器人将始终获得一个不错的页面。