14

我需要做的是从数百个链接中读取数据,其中一些链接不包含数据,因此,如这里的代码:

urls <-paste0("http://somelink.php?station=",station, "&start=", Year, "01-01&etc")
myData <- lapply(urls, read.table, header = TRUE, sep = '|')

弹出一个错误说“输入中没有可用的行”,我尝试使用“try”,但同样的错误,请帮助,谢谢。

4

2 回答 2

25

以下是 2 种可能的解决方案(未经测试,因为您的示例不可重现):

使用try

myData <- lapply(urls, function(x) {
  tmp <- try(read.table(x, header = TRUE, sep = '|'))
  if (!inherits(tmp, 'try-error')) tmp
})

使用tryCatch

myData <- lapply(urls, function(x) {
  tryCatch(read.table(x, header = TRUE, sep = '|'), error=function(e) NULL)
})
于 2012-11-28T19:57:31.837 回答
0

这有帮助吗?

  dims <- sapply(myData, dim)[2,]
  bad_Ones <- myData[dims==1]
  good_Ones <- myData[dims>1]

如果myData仍然从站页面抓取一些东西,上面的代码应该将myData列表分成两个单独的组。 good_Ones将是您想要使用的列表。(当然,假设以上是准确的)

于 2012-11-28T20:32:56.010 回答