我想从此link抓取数据。我使用rvest和循环来获取表。
这是我的代码:
require(dplyr)
require(rvest)
# store web url
url <- "https://corona.thueringen.de/covid-19-bulletin/"
# check xpath
xpath_part1="/html/body/main/div[2]/div/section[2]/ul/li["
xpath_part2="]/div/div/div[2]/div/table"
# save tables
for(i in 1:50){
tbl_test_ <-
url %>%
xml2::read_html() %>%
rvest::html_nodes(xpath=paste0(xpath_part1, i, "]", xpath_part2)) %>%
rvest::html_table(fill = TRUE) %>%
dplyr::rename(Gesundheitsamt=1)
}
我收到以下错误:
Fehler in UseMethod("rename_") :
nicht anwendbare Methode für 'rename_' auf Objekt der Klasse "list" angewendet
Zusätzlich: Warnmeldung:
In xml_find_all.xml_node(x, make_selector(css, xpath)) :
Invalid expression [1207]
编辑1:
我已经清理了代码:
# save tables
for(i in 1:50){
tbl_test_ <-
url %>%
xml2::read_html() %>%
rvest::html_nodes(xpath=paste0(xpath_part1, i, xpath_part2)) %>%
rvest::html_table(fill = TRUE) %>%
dplyr::rename(Gesundheitsamt=1)
}
并获得错误消息:
Fehler in open.connection(x, "rb") : HTTP error 404.
关于如何纠正此错误并获取表格的任何建议?
编辑2: 我可以在当前表中添加一些其他信息。我得到这个:
# store web url
url <- "https://corona.thueringen.de/bulletin"
#Read the page
page <- url %>% read_html()
fxp <- "/html/body/main/div[2]/div/section[1]/div[2]/div[1]/div[2]/div"
tbl_current <-
page %>%
html_nodes("table[align=left]") %>%
html_table() %>%
.[[1]] %>%
dplyr::rename(Gesundheitsamt=1) %>%
dplyr::mutate(note_1=rvest::html_text(rvest::html_nodes(th_bulletin, xpath=paste0(fxp, "/div[1]/h2")))) %>%
dplyr::mutate(note_2=rvest::html_text(rvest::html_nodes(th_bulletin, xpath=paste0(fxp, "/div[3]/h3"))))
使用完整的xpath并不是最好的方法,但是我不知道仅从站点的特定部分获取节点(/ html / body / main / div [2] / div / section {{3 }}。
对于存档表,我也在寻找此信息。我尝试首先将其存储在列表中。但这似乎仅适用于一个html_node。
tbl_all <-
page %>%
rvest::html_nodes("table[align=left]")
在这里,我得到一个列表,每个表都有一个元素
[[1]] table
[[2]] table
.
.
.
使用多个节点不起作用。
tbl_all_ <-
page %>%
rvest::html_nodes("table[align=left]", "h2", "h3")
是否可能在列表中获得多于一种的节点?我想得到
[[1]] for /html/body/main/div[2]/div/section[2]/ul/li[1]
table 1
table 2
h2
h3
[[2]] for /html/body/main/div[2]/div/section[2]/ul/li[2]
table 1
table 2
h2
h3
[[3]] for /html/body/main/div[2]/div/section[2]/ul/li[3] ...
谢谢。
答案 0 :(得分:1)
这是一种检索请求的表的简便方法。
无需单独检索每个表,而是一次读取页面(速度更快,网络流量也更少),然后使用html_nodes
和CSS'table'选择器解析所有表。
这将返回页面上的所有142个表。看起来这些表是3组的。通过使用CSS选择器指定所需的属性,可以简化此列表以提供所需的子集。
require(dplyr)
require(rvest)
# store web url
url <- "https://corona.thueringen.de/bulletin"
#Read the page
page <- url %>% read_html()
#retrieve all of the tables
tables<- page %>% rvest::html_nodes("table")
#cycle through the selected tables
#and stored as needed
for (table in tables) {
print(table %>% html_table())
Sys.sleep(2)
}
#another possible selection method:
# select tables where the align attribute = "left"
page %>% html_nodes("table[align=left]") %>% html_table()
更新
由于您要查找列表中存储为列表的所有表。这是一个修订。该页面使用class =“ th-lst-itm card”分为一系列li。第一步是检索此父节点列表,然后从每个父节点解析所有表。
# store web url
url <- "https://corona.thueringen.de/bulletin"
#Read the page
page <- url %>% read_html()
#find archived list items with class=th-lst-itm
listofitems<-page %>% rvest::html_nodes("li.th-lst-itm")
#store all of the tables in as list within a list
answer<-lapply(listofitems, function(item){
item %>% html_nodes("table") %>% html_table()
})
# #first try but did not work for all elements
# names(answer)<-listofitems %>% html_node("h2") %>% html_text() %>% trimws()
#name the elements
names(answer)<-listofitems %>% html_node("span.th-lbl") %>% html_text() %>% trimws()
#Pull a sample
answer[["COVID-19 / Bulletin der Thüringer Landesregierung 02/2020" ]]