每次尝试检查速度时,都会收到此错误:
import requests
import urllib.request
def crawlpages():
for i in range(1451720, 1451730):
link = "https://www.mmo-champion.com/members/" + str(i)
content = urllib.request.urlopen(link)
mydata = content.read()
with open('Newfile.html%s' %i,'wb') as file:
file.write(mydata)
crawlpages()
我该怎么办?
答案 0 :(得分:1)
我的评论已删除,因此我们尝试一个答案。
您的网站无法与Page Speed Insights一起使用的原因是,您有一个旨在保护源代码的脚本。
此脚本激活调试器并暂停脚本执行,生成以下代码:-
(function anonymous(
) {
debugger
})
这会暂停Page Speed Insights的JavaScript执行并导致超时(由于PSI与控制台进行交互以创建其数据,因此保护脚本会无限期地暂停执行)。
该脚本不提供任何保护,因为您可以简单地阻止该请求并重新加载页面,如此一来,它就会引起您的问题。 (同样,如果有人尝试抓取您的网站并提取数据,他们将通过cURL或类似方法进行操作,因此JS甚至在那时都没有关系。)
但是,由于Google Bot无法正确抓取页面,您的法律声明脚本会破坏您的排名,还会阻止您运行Page Speed Insights等。
最后,无法右键单击会影响用户体验。
无论谁建议您尝试保护您网站上的代码,都会误导您以为这是个好主意,它会给您带来数百个问题,并且无法如前所述提供保护。
令人讨厌的脚本如下,将其删除,您的网站将正常运行:-