我需要做的是从数百个链接中读取数据,其中一些链接不包含数据,因此,如这里的代码:
urls <-paste0("http://somelink.php?station=",station, "&start=", Year, "01-01&etc")
myData <- lapply(urls, read.table, header = TRUE, sep = '|')
弹出一个错误说“输入中没有可用的行”,我尝试使用“try”,但同样的错误,请帮助,谢谢。
以下是 2 种可能的解决方案(未经测试,因为您的示例不可重现):
使用try
:
myData <- lapply(urls, function(x) {
tmp <- try(read.table(x, header = TRUE, sep = '|'))
if (!inherits(tmp, 'try-error')) tmp
})
使用tryCatch
:
myData <- lapply(urls, function(x) {
tryCatch(read.table(x, header = TRUE, sep = '|'), error=function(e) NULL)
})
这有帮助吗?
dims <- sapply(myData, dim)[2,]
bad_Ones <- myData[dims==1]
good_Ones <- myData[dims>1]
如果myData
仍然从站页面抓取一些东西,上面的代码应该将myData
列表分成两个单独的组。 good_Ones
将是您想要使用的列表。(当然,假设以上是准确的)