如何请求谷歌重新抓取网址(不提取谷歌)

时间:2014-09-30 06:02:58

标签: seo web-crawler googlebot

我在一个每天访问量达15,000次的网站上工作,我们已经在其上发布了广告,其中一些很重要(它们适用于银行),这类广告的内容永远不会改变,但是有一点他们宣布他们需要一些重复内容的人(工作和要求永远不会改变:|)。现在我们需要告诉Googlebot重新抓取这些网址,因此我们使用不同的文字更新了目标网页的内容,但Googlebot并未根据需要快速抓取这些内容。使用Fetch作为谷歌是一个意见,但有很多广告,我们需要一个自动方式做到这一点。你有什么建议?

3 个答案:

答案 0 :(得分:1)

尽量避免自动化并在临时基础上提交链接。构建一个干净的xml站点地图。 xml文件告诉搜索引擎您的站点地图可能包含动态和频繁更改以及健康的URL列表。这意味着,如果您的站点地图使用格式良好的XML代码,提供干净,有效的网址,并满足搜索引擎的其他要求,则其中包含的网址至少会被搜索以供搜索用于未来爬行活动的引擎。耐心得到回报......

健康的xml站点地图可帮助使用动态网址的网站为其内容网页和网站提供与其当前活动网页无法良好链接的存档内容。此外,xml站点地图可帮助网站使用难以发现的页面,这些页面使用难以抓取的链接(,例如脚本中的链接)或非文本内容(例如Flash或Silverlight)。

在线有很多解决方案可以帮助生成XML站点地图。一切顺利!

答案 1 :(得分:1)

不幸的是,您无法实现此目标,因为Google会根据其受欢迎程度,反向链接的数量以及它认为您的网页对其用户的重要程度来决定重新抓取网页的频率。如果您不想将抓取用作Google,则无法强制Google重新抓取该网页。

但是,有一种解决方法。使用新的URL创建一个新页面,使用新的URL(例如,包含最近的日期,否则使用相同的路径),并使用301将旧页面重定向到它,或者设置从旧页面到旧页面的规范链接新页面。这肯定会加快新页面的索引,同时很快就删除旧页面。它会将大部分PR汁液从旧页面传递到新页面。确保新页面也已添加到sitemap.xml

这将自动实现你想要的(非常)。

答案 2 :(得分:0)

提交站点地图时,您可以指定内容更改的频率。它并不能保证它经常抓取它,但它会让Google知道它需要爬行的频率。

google help to create Sitemap.