我是R的新手,想寻求一些建议。
我正在尝试下载多个网址链接(pdf格式,而不是html)并使用R将其保存为pdf文件格式。
我所拥有的链接具有特色(取自网站的html代码)。
我尝试使用download.file()函数,但这需要特定的url链接(用R脚本编写),因此只能为1个文件下载1个链接。但是我有很多网址链接,并希望得到帮助。
谢谢。
答案 0 :(得分:3)
我相信你要做的是下载一个网址列表,你可以尝试这样的方法:
urls <- c("http://link1", "http://link2", "http://link3")
for (url in urls) {
download.file(url, destfile = basename(url))
}
如果您使用的是Linux / Mac和https,则可能需要为download.file指定方法和额外属性:
download.file(url, destfile = basename(url), method="curl", extra="-k")
如果您愿意,可以在此处测试我的概念验证:https://gist.github.com/erickthered/7664ec514b0e820a64c8
希望它有所帮助!
答案 1 :(得分:0)
url = c('https://cran.r-project.org/doc/manuals/r-release/R-data.pdf',
'https://cran.r-project.org/doc/manuals/r-release/R-exts.pdf',
'http://kenbenoit.net/pdfs/text_analysis_in_R.pdf')
names = c('manual1',
'manual2',
'manual3')
for (i in 1:length(url)){
download.file(url[i], destfile = names[i], mode = 'wb')
}