使用 html_text() 和 html_node() 抓取网站返回空

时间:2021-02-09 17:06:15

标签: r web-scraping xpath rvest xml2

我想从网站上抓取所有地址。我可以看到网站上的地址,但不知何故无法导航到它们。如果我继续导航,带有 html_nodes() 的导航将不再起作用,只会停留在三个级别之后的点上。

我执行的代码是:

mpreis <- "https://www.mpreis.at/sp/standorte"
addresses_vector = c()

x <- GET(url=mpreis)
html_doc <- read_html(x)
  
addresses_vector <- c(addresses_vector, html_doc %>%
    rvest::html_nodes(xpath="body/div/main")%>%
    xml2::xml_find_all(xpath="//*[contains(@class, 'c3-market-list__item-address')]")%>%
    rvest::html_text())

我尝试使用 xpath 表示法和 css 表示法的几种不同选项导航到我感兴趣的元素,但 html_text() 总是返回一个空向量,因为 html_nodes() 没有导航到所指的节点.

有关为什么我无法使用该类或任何其他想法导航到特定节点,为什么我在网站上看到的内容在 R 中返回为空的任何帮助表示赞赏!

0 个答案:

没有答案