我有一堆 ftp 站点,我想使用 rCurl getURL 函数自动检索数据。
我正在这样做:
首先,我有一个这样的 url 边向量:
sites<-c("ftp.test1.com", "ftp.test2.com", "ftp.test3.com")
for (i in 1:length(sites)) {
data<-getURL(sites[i], userpwd="id:passwd")
<here I have code to insert this data to db>
}
直到这里它才有效。但有时,我可以从 ftp 站点抽出时间。如果超时,此代码将中断。如果出现超时或身份验证错误,我该如何处理。我喜欢继续处理其他 ftp 站点并记录有问题的 ftp 站点的问题。任何想法,我会怎么做?