将HTML中的表格转换为数据框架

时间:2017-07-27 05:53:41

标签: html r web-scraping

我正试着从维基百科上刮下桌子,我陷入了僵局。我以FIFA 2014世界杯的球队为例。在这种情况下,我想从页面“2014 FIFA World Cup squads”的内容表中提取参与国家的列表,并将它们存储为矢量。这是我有多远:

library(tidyverse)
library(rvest)
library(XML)
library(RCurl)

(Countries <- read_html("https://en.wikipedia.org/wiki/2014_FIFA_World_Cup_squads") %>% 
  html_node(xpath = '//*[@id="toc"]/ul') %>% 
  htmlTreeParse() %>%
  xmlRoot())

这会吐出一堆我不会在这里复制/粘贴的HTML代码。我特别希望提取标签为<span class="toctext">的所有行,例如“Group A”,“Brazil”,“Cameroon”等,并将它们保存为向量。什么功能会使这种情况发生?

1 个答案:

答案 0 :(得分:3)

您可以使用html_text()

从节点中读取文字
url <- "https://en.wikipedia.org/wiki/2014_FIFA_World_Cup_squads"
toc <- url %>%
    read_html() %>%
    html_node(xpath = '//*[@id="toc"]') %>%
    html_text()

这为您提供了单个字符向量。然后你可以拆分\n字符,将结果作为向量给你(你可以清除空白)

contents <- strsplit(toc, "\n")[[1]]

contents[contents != ""]

# [1] "Contents"                                   "1 Group A"                                  "1.1 Brazil"                                
# [4] "1.2 Cameroon"                               "1.3 Croatia"                                "1.4 Mexico"                                
# [7] "2 Group B"                                  "2.1 Australia"                              "2.2 Chile"                                 
# [10] "2.3 Netherlands"                            "2.4 Spain"                                  "3 Group C"                                 
# [13] "3.1 Colombia"                               "3.2 Greece"                                 "3.3 Ivory Coast"                           
# [16] "3.4 Japan"                                  "4 Group D"                                  "4.1 Costa Rica"                            
# [19] "4.2 England"                                "4.3 Italy"                                  "4.4 Uruguay"                               
# ---
# etc

通常,要阅读html文档中的表格,您可以使用html_table()函数,但在这种情况下,目录不会被读取。

url %>% 
    read_html() %>%
    html_table()