使用rvest,如何从submit_form()返回的对象中提取html内容

时间:2016-07-31 18:19:57

标签: html r web-scraping html-parsing rvest

我正试图在this topic之后从pems.dot.ca.gov下载一些流量数据。

rm(list=ls())
library(rvest)
library(xml2)
library(httr)
url <- "http://pems.dot.ca.gov/?report_form=1&dnode=tmgs&content=tmg_volumes&tab=tmg_vol_ts&export=&tmg_station_id=74250&s_time_id=1369094400&s_time_id_f=05%2F21%2F2013&e_time_id=1371772740&e_time_id_f=06%2F20%2F2013&tod=all&tod_from=0&tod_to=0&dow_5=on&dow_6=on&tmg_sub_id=all&q=obs_flow&gn=hour&html.x=34&html.y=8"
pgsession <- html_session(url)
pgform <-html_form(pgsession)[[1]]
filled_form <- set_values(pgform,
                          'username' = 'omitted',
                          'password' = 'omitted')
resp = submit_form(pgsession, filled_form)
resp_2 = resp$response
cont = resp_2$content

我检查了这些项目的class(),发现resp是'session',resp_2是'response',cont是'raw'。我的问题是:如何正确提取html内容,以便我可以继续使用XPath从这个页面中挑选出我想要的实际数据?我的直觉是我应该解析resp_2这是一个响应,但我无法使其工作。非常感谢您的帮助!

2 个答案:

答案 0 :(得分:2)

您需要httr::content,它会将响应解析为内容,在本例中为HTML,可以使用rvest轻松解析:

resp_2 %>% content()
## {xml_document}
## <html style="height: 100%">
## [1] <head>\n  <!-- public -->\n  <meta http-equiv="Content-Type" content="text/html; charset=utf-8"/     ## ...
## [2] <body class="yui-skin-sam public">\n  <div id="maincontainer" style="height: 100%">\n\n      \n\     ## ...

答案 1 :(得分:2)

这应该这样做:

pg <- content(resp$response)

html_nodes(pg, "table.inlayTable") %>% 
  html_table() -> tab

head(tab[[1]])
##                 X1      X2           X3           X4
## 1                          Data Quality Data Quality
## 2             Hour 8 Lanes   % Observed  % Estimated
## 3 05/24/2013 00:00   1,311           50            0
## 4 05/24/2013 01:00     729           50            0
## 5 05/24/2013 02:00     399           50            0
## 6 05/24/2013 03:00     487           50            0

(你显然需要修改列名)