使用R下载URL链接

时间:2015-08-24 04:08:20

标签: r

我是R的新手,想寻求一些建议。

我正在尝试下载多个网址链接(pdf格式,而不是html)并使用R将其保存为pdf文件格式。

我所拥有的链接具有特色(取自网站的html代码)。

我尝试使用download.file()函数,但这需要特定的url链接(用R脚本编写),因此只能为1个文件下载1个链接。但是我有很多网址链接,并希望得到帮助。

谢谢。

2 个答案:

答案 0 :(得分:3)

我相信你要做的是下载一个网址列表,你可以尝试这样的方法:

  1. 使用c(),ej:
  2. 将所有链接存储在向量中

    urls <- c("http://link1", "http://link2", "http://link3")

    1. 遍历文件并下载每个文件:
    2. for (url in urls) { download.file(url, destfile = basename(url)) }

      如果您使用的是Linux / Mac和https,则可能需要为download.file指定方法和额外属性:

      download.file(url, destfile = basename(url), method="curl", extra="-k")
      

      如果您愿意,可以在此处测试我的概念验证:https://gist.github.com/erickthered/7664ec514b0e820a64c8

      希望它有所帮助!

答案 1 :(得分:0)

URL

url = c('https://cran.r-project.org/doc/manuals/r-release/R-data.pdf',
        'https://cran.r-project.org/doc/manuals/r-release/R-exts.pdf',
        'http://kenbenoit.net/pdfs/text_analysis_in_R.pdf')

指定名称

names = c('manual1',
          'manual2',
          'manual3')

遍历文件并下载具有相应名称的每个文件:

for (i in 1:length(url)){
    download.file(url[i], destfile =  names[i], mode = 'wb')
}