优化站点到站点的合法性,以便快速加载到googlebot

时间:2010-01-20 02:12:47

标签: performance browser seo googlebot

我的问题有点道德。

我看了here,Google对经过优化以快速加载的网站提供了更多的影响力。显然,这使得Google的工作更轻松,使用更少的资源,这对每个人来说都是更好的体验,为什么不奖励它呢?

现在很好地理解了发现瓶颈和提高页面加载速度的实际过程。使用像YSlow这样的工具并减少文件数量正在成为标准做法(这很棒!)

那么服务googlebot(或其他搜索机器人)自定义内容会更快下载吗?(即没有javasript,图片或css)是否公平/智能/犹太?或者它会标记你作为骗子并将你的网站扔进 limbo ,谷歌无法搜索?

就个人而言,我宁愿不冒险,我实际上也想提高访问者的表现。但就目前而言,关于这个主题的信息并不多,所以我想我会把它扔出去。


修改

我找到了一些可能会考虑的新信息。

来自Google的网站站长工具:http://www.google.com/support/webmasters/bin/answer.py?answer=158541&hl=en

  

页面加载时间是指用户单击链接到页面的时间到整个页面加载并显示在浏览器中的总时间。 直接从安装了Google工具栏的用户收集并启用了可选的PageRank功能。

无法保证他们会使用相同的算法对搜索结果中的网页进行排名,但它确实可能表明最重要的实际用户体验。

3 个答案:

答案 0 :(得分:2)

  

(即没有javasript,图像或css)

让他们JS,CSS外部。谷歌不会触摸它(经常) - (或者你可以通过robots.txt阻止它,但这是不必要的)

制作所有重复的图像精灵。 在文档正文的onload事件之后通过js异步加载大图像。

这对用户也有好处,因为站点会更快地呈现,直到他们看到某些内容。

只要谷歌和平均首次访问者的主要内容相同,并且如果没有错失主导意图,那就没问题,这是一个很好的策略。

不要担心任何可能的惩罚。只要没有误导性的意图,它就是好的。

根据用户代理提供的谷歌有什么不可以完全不同的东西。 (这里保存比抱歉更好)

答案 1 :(得分:1)

查看Google网站管理员指南:http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=35769

基本上它分解为:除了googlebot无法参与体验之外,您需要为googlebot和观众提供完全相同的体验。一个值得注意的例子是登录。新闻网页经常跳过googlebot的登录页面页面,因为googlebot不能/不会注册帐户。

我认为google不会主动寻找针对googlebot进行优化/优先排序的网页,但如果他们发现了一个,那么他们就会像锤子一样对其进行攻击。

答案 2 :(得分:1)

没有人可以确切地说出谷歌会检测到你的网站的内容;他们保持他们的算法秘密。但是,他们通常不赞成任何为googlebot提供不同内容的人,而不是他们的服务。如果他们抓住你,他们可能会减少你的PageRank。

真的,这个问题成为你想要这样做的原因吗?如果您为googlebot加快页面加载速度,那么您应该为客户加快加载速度。研究表明,只需十分之一秒的加载时间就会失去客户;为什么你想从谷歌那里获得更多的客户只是为了在一个缓慢的网站上失去它们?

我认为这根本不值得冒险;只需改进您的网站,让每个人加载更快,而不是尝试为googlebot提供不同的网页。