HTTP / 2最佳实践能否损害SEO / SERP?

时间:2015-11-19 19:34:37

标签: seo concatenation minify http2 serp

我正处于研究HTTP/2的开端;它的好处和任何可能的缺点。我看了presentation from the Chrome Dev Summit,我对SERP和SEO有些担忧。 A Tweet asking the same concernsreplied by Surma(Google团队开发人员和演示人员)。说,“我没有看到任何方法为什么删除连接会影响SERP。从语义上讲,HTTP / 2 == HTTP / 1”。我不是质疑他的权威,而只是他回答的背景,所以我认为我应该向社区伸出援助之视。

下面是关于HTTP / 2(H2)的网络上的几个引用来设置阶段:

Wikipedia states while using H2:

  

有效的网站可以最大限度地减少所需的请求数量   通过缩小来渲染整个页面(减少代码量和   将较小的代码片段打包成捆,但不减少它   功能的能力)图像和脚本等资源。然而,   缩小不一定方便也不高效,并且可能   仍然需要单独的HTTP连接来获取页面和   缩小资源。 HTTP / 2允许服务器“推送”内容   是,响应数据以获得比客户端请求更多的查询。   这允许服务器提供它知道Web浏览器将需要的数据   渲染网页,而不是等待浏览器检查   第一个响应,没有额外请求的开销   周期

现在,我目前所知道的一切都引起了人们对SERP的关注,因为我们被告知放弃Akamai(下图)和Surma(视频)人员引用的HTTP / 1.1 Best Practices

Quoted from Akamai:

  

撤消HTTP / 1.1最佳做法:许多与之相关的“最佳做法”   通过HTTP / 1.1传递的应用程序(例如域分片,图像   spriting,资源内联和连接)不仅是   通过HTTP / 2传送时不必要,在某些情况下可能   实际上导致了次优化。

这是因为H2是多路复用的,并且可以在单个TCP通道上向客户端stream提供资源,并且实际上将内容更快地发送到客户端(特别是在正确使用H2 push清单时)

  

决定推送什么以及何时推送:旨在采用的应用程序   必须是HTTP / 2中新服务器推送功能的优势   精心设计,以平衡性能和实用性。

好吧,好吧。我看到它是如何工作的,并且会为每个人创建互联网a better world(例如:服务器所有者和客户端 - 尤其是移动客户端),大大减少了请求和带宽(将$$保存到全部)。但是,如果我们通过不最小化和连接静态资源来放弃HTTP / 1.1 Best Practices,这不会显着影响SERP吗?作为一个例子,谷歌说我们必须最小化并连接到减少带宽和请求,否则页面会被淹没,页面SERP会下降。 (当前?)搜索引擎算法也是如此。

我的问题是任何了解SERPS和H2 的任何权威人士,如果HTTP / 1.1 Best Practices因为不再减少而被丢弃,尤其是,资源,将会这个效果是当前SE算法的页面搜索排名吗?他们在分数中考虑H2吗?例如:在PageSpeed Insights上运行页面缩小并连接得分为97而H2上的同一页面被缩小并且连续得分为34 ...并且运行缩小而不是连续得分60 - 相对而言。

我知道这个问题可以被认为是主观的,但对于那些考虑下降可能性的人来说,这也是一个重要的事实调查 连接,因为这样可以节省开发时间和资源,因为HTTP / 2可以比单个大型资源更快地提供更多的资源。

非常感谢您的见解。

2 个答案:

答案 0 :(得分:0)

一开始这是一个非常主观的问题,所以想象一下它会被关闭,但是我的观点也是如此。

据称,谷歌有超过200个排名因素 - 尽管others say we shouldn't pay too much attention to that headline figure or try to work out each of them。无论如何 - 过分专注于一个特定的措施只会让你疯狂而收益甚微。

谷歌已经毫不掩饰地试图提供用户正在搜索的内容,如果有多个网站提供该内容,那么就提供最好的网站。 "最佳"也是一个主观词,有很多因素影响那个但速度肯定是一个衡量标准。我们都不喜欢慢速加载网站(尤其是我们所做的越来越流行的移动浏览)。因此,让我们专注于那一点,因为这对您的问题至关重要。

那么Google如何衡量速度呢?有很多方法 - 其中一些是直接的(比如Pagespeed Insights,或者GoogleBot在抓取您的网站时加载页面需要多长时间),其中一些是间接的(例如,通过注意有多少人点击链接然后点击返回厌倦了等待它加载之后的搜索结果)。因此,在我看来,如果所有其他因素仍然良好,那么较低的PageSpeed Insights数字不一定会突然严重影响您的网站排名。

接下来是对HTTP / 2的支持。 Browser support is actually very good。特别是考虑到协议是多么新(上帝保佑自动更新" Evergreen"浏览器!)。但是它不是通用的,所以有一个问题是你是否想要撤消你的HTTP / 1.1优化并且还会损害那些仍在旧浏览器上的那些?这些优化(我认为是黑客攻击!)并没有真正伤害HTTP / 2(至少比HTTP / 1.1中的更多) - 它只是它们不再那么必要而且它们总是有缺点。所以我们关闭了,但还没准备好关闭它们。所以你的问题可能还没有效果。

此外,目前GoogleBot本身并不支持HTTP / 2(尽管apparently that's coming soon),因此您的访问者之一会因推翻推荐而受到伤害,因此这显然是一个问题。关于你的问题。

我还确定Google PageSpeed Insights等其他工具会升级,以识别网站何时使用HTTP / 2,从而放弃HTTP / 1.1性能改进建议和评分。

在一天结束的时候,虽然没有试图完全忽视搜索引擎优化的技巧和实用性,但它实际上正在变得越来越关于创造良好的用户体验并让搜索引擎优化自我照顾。所以问题是你的用户想要HTTP / 2(是的,我会争辩!)他们是否希望你停止使用HTTP / 1.1优化(是的,他们很快就会争辩,因为他们失去了这些优化的缺点,主要是伤害缓存并使网站更难以开发,支持和维护)。因此,恕我直言,应该是决定如何处理这个问题的主要考虑因素。

答案 1 :(得分:0)

  

GoogleBot添加了对HTTP / 2的支持,支持该网站的网站   协议可能会从速度上看到额外的排名。上   最重要的是,Chrome和Firefox仅支持HTTP / 2   HTTPS,许多尚未升级到HTTPS的网站可能会看到   他们的排名会进一步提升排名。

Source