我想做一个小脚本,我可以每天在谷歌搜索我的关键字。
最佳方法是什么?
如果我使用API,我认为没有任何此任务,是否有限制?
我想查看前100-200个结果。
答案 0 :(得分:3)
file-get-contents()
更好的是,如马里奥所示,获得商业许可证。这样你就可以跳过上面的所有步骤(特别是4和5可以错过)。
答案 1 :(得分:2)
您的主要问题是Google结果现在非常自定义 - 根据您搜索的内容,可以根据您的确切位置(不仅仅是国家/地区),时间,搜索记录等来自定义结果。
因此,您的结果可能不会完全不变,并且肯定不会与几英里之外的某个浏览器历史记录相同,即使他们搜索的内容完全相同。
有各种SEO公司提供工具使结果更加标准化,这些工具不会破坏Google的服务条款。
尝试:http://www.seomoz.org/tools和http://tools.seobook.com/firefox/rank-checker/
答案 2 :(得分:0)
我写了一个php script来完成解析/抓取前1000个结果的任务,没有google的任何个性化效果,还有一个更好的版本叫做Google Search API(它概括了任务,返回一系列格式精美的结果) 这两个脚本都在服务器端工作,并直接从结果页面解析结果uging cURL和regex
答案 3 :(得分:0)
几个月前,我与GooHackle人一起工作,他们有一个网络应用程序可以完全满足您的需求,而且成本不高,他们的月计划不到30美元。
就像Blowski已经说过的那样,现在谷歌的搜索结果是非常自定义的,但是如果你总是使用相同的国家和查询参数搜索,你可以对几个关键字和域名的排名有一个非常准确的看法。
如果您想自己开发应用程序也不会太困难,您可以使用PHP或任何其他语言定期执行查询并将结果保存在数据库中。基本上只有两点要解决,执行HTTP查询(使用cURL轻松完成)并解析结果(可以使用正则表达式或DOM结构)。然后,如果您想要监控数以千计的关键字和域名,那么事情变得更加困难,因为Google开始禁止您的IP地址。
我认为来自“大家伙”的这类应用程序拥有来自不同国家的数百或数千种不同的IP地址。这样他们就可以收集大量关键字的Google搜索结果。
关于我最初提到的在线工具,他们还有一个在线Google scraper,任何人都可以使用它并显示其工作原理,只需查询和解析。
答案 4 :(得分:0)
SEOPanel可解决类似问题:您可以下载开源代码并为搜索结果提取简单的关键字解析器。使用的“技巧”是关于减慢查询搜索,而项目由Google(代码)自己托管。