URL-使用R进行网页抓取

时间:2019-03-26 09:25:07

标签: html r web-scraping

我正在尝试使用R从LinkedIn抓取内容,但是在尝试读取HTML内容时,我一直遇到错误。

这是我的代码:

install.packages("curl")
library("selectr")
library("xml2")
library("rvest")
library("stringr")
library("curl")
url="https://www.linkedin.com/in/hollyhynes/" 
webpage <- read_html(url)

错误是:

  

open.connection(x,“ rb”)中的错误:HTTP错误999

我尝试使用curl软件包:

webpage=read_html(curl("https://www.linkedin.com/in/hollyhynes/",handle 
  = new_handle("useragent" = "Mozilla/5.0")))

但它还返回了一个错误:

  

open.connection(x,“ rb”)中的错误:HTTP错误999。
  另外:警告消息:
  1:如果if(!is.character(x))x <-结构(as.character(x),名称=   名称(x)):
  关闭未使用的连接5(https://www.linkedin.com/in/hollyhynes/
  2:如果if(!is.character(x))x <-结构(as.character(x),名称=   名称(x)):
  关闭未使用的连接4(https://www.linkedin.com/in/hollyhynes/
  3:如果if(!is.character(x))x <-结构(as.character(x),名称=   名称(x)):
  关闭未使用的连接3(https://www.linkedin.com/in/hollyhynes/

将感谢我如何修复的一些帮助  谢谢:)

0 个答案:

没有答案