我知道您可以访问http://webcache.googleusercontent.com/search?q=cache:http://example.com/查看Google的任何网址缓存,但是他们是否提供了一个API来支持数以千计的这些并支付访问权限?
我不想仅仅过快地对这些网址进行HTTP GET,并且禁止使用我的IP地址或让谷歌感到不安。
只是想知道他们是否提供了一种支付方式,并通过官方渠道进行支付,就像他们使用搜索API一样。
答案 0 :(得分:3)
答案 1 :(得分:-2)
目前还没有我发现的工具。您必须创建自己的脚本来单独缓存一定数量的页面。为了避免谷歌阻止你,我建议限制抓取的网址数量。不理想,但运行脚本10次比单独查看1000个缓存的URL更好。 :/
如果您想看看您在网站上编辑的内容是否会影响您在Google的潜在排名,我会查看SEORadar.com,他们会为您做到这一点。