1

我有一堆 ftp 站点,我想使用 rCurl getURL 函数自动检索数据。

我正在这样做:

首先,我有一个这样的 url 边向量:

 sites<-c("ftp.test1.com", "ftp.test2.com", "ftp.test3.com")
 for (i in 1:length(sites)) {
  data<-getURL(sites[i], userpwd="id:passwd")

  <here I have code to insert this data to db>
}

直到这里它才有效。但有时,我可以从 ftp 站点抽出时间。如果超时,此代码将中断。如果出现超时或身份验证错误,我该如何处理。我喜欢继续处理其他 ftp 站点并记录有问题的 ftp 站点的问题。任何想法,我会怎么做?

4

1 回答 1

2

如果the code breaks您的意思是代码引发了 R 错误,您可以使用它tryCatch来捕获错误。然后,您可以优雅地处理问题,而不是引发错误,例如忽略该数据,或尝试建立新连接。

于 2013-04-12T20:00:42.840 回答