3

我需要从 sftp 服务器下载文件并解析它们并将内容插入到数据库中。

我目前正在使用 rCurl,如下所示:

library(RCurl) 
url<-c("sftp://data.ftp.net/incomining.data.txt")
x<-getURL(url, userpwd="<id>:<passwd>")
writeLines(x, incoming.data.txt"))

我还查看了 download.file,但在 download.file 中没有看到 sftp sufpport。有没有其他人做过类似的工作?由于我将获得多个文件,因此我注意到 rcurl 有时会超时。我喜欢先从 sftp 服务器 sftp 下载所有文件,然后再进行处理。有任何想法吗?

4

1 回答 1

2

听起来问题是“如何避免 rcurl 超时?”

增加 CURLOPT_CONNECTTIMEOUT 的值。这实际上与在 PHP 中设置 Curl 的超时相同的问题。

编辑,来自以下评论:

x<-getURL(url, userpwd="<id>:<passwd>", connecttimeout=60) // 60 seconds, e.g.
于 2013-04-18T18:03:48.237 回答