我需要从sftp服务器下载文件并解析它们并将内容插入数据库。
我目前正在使用rCurl,如下所示:
library(RCurl)
url<-c("sftp://data.ftp.net/incomining.data.txt")
x<-getURL(url, userpwd="<id>:<passwd>")
writeLines(x, incoming.data.txt"))
我也查看了download.file,我在download.file中看不到sftp支持。还有其他人做过类似的工作吗?由于我将获得多个文件,我注意到rcurl有时会超时。我喜欢sftp首先从sftp服务器下载所有文件然后处理它。有什么想法吗?
答案 0 :(得分:2)
听起来问题是“如何避免rcurl中的超时?”
增加CURLOPT_CONNECTTIMEOUT的值。这与Setting Curl's Timeout in PHP实际上是同一个问题。
编辑,来自以下评论:
x<-getURL(url, userpwd="<id>:<passwd>", connecttimeout=60) // 60 seconds, e.g.