如何使用readLines和grep在R中构建Web scraper?

时间:2011-10-31 18:34:09

标签: r web-scraping

我是R的新手。我想编写一份100万字的报纸文章。所以我正在尝试编写一个网络刮刀来检索报纸上的文章。监护人网站:http://www.guardian.co.uk/politics/2011/oct/31/nick-clegg-investment-new-jobs

刮刀意味着从一页开始,检索文章的正文,删除所有标签并将其保存到文本文件中。然后它应该通过本页面上的链接转到下一篇文章,获取文章等等,直到该文件包含大约100万字。

不幸的是,我的刮刀并没有走得太远。

我使用readLines()来访问网站的源代码,现在想要获取代码中的相关行。

Guardian中的相关部分使用此ID标记文章的正文:

<div id="article-body-blocks">         
  <p>
    <a href="http://www.guardian.co.uk/politics/boris"
       title="More from guardian.co.uk on Boris Johnson">Boris Johnson</a>,
       the...a different approach."
  </p>
</div>

我尝试使用grep和lookbehind的各种表达式来掌握这一部分 - 尝试获取此ID之后的行 - 但我认为它不适用于多行。至少我不能让它发挥作用。

有人可以帮忙吗?如果有人可以提供一些我可以继续工作的代码,那就太好了!

感谢。

1 个答案:

答案 0 :(得分:14)

如果您真的坚持使用grepreadLines,那么您将面临清理已删除页面的问题,但当然可以这样做。例如:

加载页面:

html <- readLines('http://www.guardian.co.uk/politics/2011/oct/31/nick-clegg-investment-new-jobs')

借助str_extract stringr包中的library(stringr) body <- str_extract(paste(html, collapse='\n'), '<div id="article-body-blocks">.*</div>') 和简单的正则表达式,您就完成了:

body

好吧,<p>看起来很难看,你必须从gsub和脚本清理它。这可以通过gsub('<script(.*?)script>|<span(.*?)>|<div(.*?)>|</div>|</p>|<p(.*?)>|<a(.*?)>|\n|\t', '', body) 和朋友(好的正则表达式)来完成。例如:

library(XML)
library(RCurl)
webpage <- getURL('http://www.guardian.co.uk/politics/2011/oct/31/nick-clegg-investment-new-jobs')
webpage <- readLines(tc <- textConnection(webpage)); close(tc)
pagetree <- htmlTreeParse(webpage, useInternalNodes = TRUE, encoding='UTF-8')
body <- xpathSApply(pagetree, "//div[@id='article-body-blocks']/p", xmlValue)

正如@Andrie建议的那样,你应该为此目的使用一些包构建。小演示:

body

> str(body) chr [1:33] "The deputy prime minister, Nick Clegg, has said the government's regional growth fund will provide a \"snowball effect that cre"| __truncated__ ... 导致文字干净的地方:

xpathSApply(htmlTreeParse('http://www.guardian.co.uk/politics/2011/oct/31/nick-clegg-investment-new-jobs', useInternalNodes = TRUE, encoding='UTF-8'), "//div[@id='article-body-blocks']/p", xmlValue)

更新:以上为一线(感谢@Martin Morgan的建议):

{{1}}