5

我正在尝试使用Amazon Elastic Map Reduce运行数百万个案例的一系列模拟。这是一个没有减速器的 Rscript 流作业。我在 EMR 通话中使用 Identity Reducer --reducer org.apache.hadoop.mapred.lib.IdentityReducer

当手动传递一行字符串时,脚本文件在测试和本地运行时运行良好echo "1,2443,2442,1,5" | ./mapper.R,我得到了我期望的一行结果。但是,当我使用 EMR 上的输入文件中的大约 10,000 个案例(行)测试我的模拟时,我在 10k 输入行中只得到了十几行左右的输出。我已经尝试了几次,但我不知道为什么。Hadoop 作业运行良好,没有任何错误。似乎正在跳过输入行,或者 Identity reducer 可能发生了一些事情。对于有输出的情况,结果是正确的。

我的输入文件是具有以下数据格式的 csv,由逗号分隔的五个整数组成:

1,2443,2442,1,5
2,2743,4712,99,8
3,2443,861,282,3177
etc...

这是我的mapper.R的 R 脚本

#! /usr/bin/env Rscript

# Define Functions
trimWhiteSpace <- function(line) gsub("(^ +)|( +$)", "", line)
splitIntoWords <- function(line) unlist(strsplit(line, "[[:space:]]+"))
# function to read in the relevant data from needed data files
get.data <- function(casename) {
    list <- lapply(casename, function(x) {
        read.csv(file = paste("./inputdata/",x, ".csv", sep = ""),
                 header = TRUE,
        stringsAsFactors = FALSE)})
    return(data.frame(list))
}

con <- file("stdin")            
line <- readLines(con, n = 1, warn = FALSE) 
line <- trimWhiteSpace(line)
values <- unlist(strsplit(line, ","))
lv <- length(values)
cases <- as.numeric(values[2:lv])
simid <- paste("sim", values[1], ":", sep = "")
l <- length(cases)                      # for indexing

## create a vector for the case names
names.vector <- paste("case", cases, sep = ".")

## read in metadata and necessary data columns using get.data function
metadata <- read.csv(file = "./inputdata/metadata.csv", header = TRUE,
                     stringsAsFactors = FALSE)
d <- cbind(metadata[,1:3], get.data(names.vector))

## Calculations that use df d and produce a string called 'output' 
## in the form of "id: value1 value2 value3 ..." to be used at a 
## later time for agregation.

cat(output, "\n")
close(con)

此模拟的(广义)EMR 调用是:

ruby elastic-mapreduce --create --stream --input s3n://bucket/project/input.txt --output s3n://bucket/project/output --mapper s3n://bucket/project/mapper.R --reducer org.apache.hadoop.mapred.lib.IdentityReducer --cache-archive s3n://bucket/project/inputdata.tar.gz#inputdata --name Simulation --num-instances 2

如果有人对我为什么会遇到这些问题有任何见解,我愿意接受建议,以及对 R 脚本的任何更改/优化。

我的另一个选择是将脚本变成一个函数并使用 R 多核包运行并行化应用,但我还没有尝试过。我想让这个在 EMR 上工作。我使用JD Long

4

1 回答 1

4

没有什么明显的跳出。但是,您可以使用只有 10 行的简单输入文件来运行该作业吗?确保这 10 行是没有在您的大测试用例中运行的场景。尝试这样做以消除您的输入导致 R 脚本无法生成答案的可能性。

调试 EMR 作业本身就是一项技能。

编辑:

这是一次全面的钓鱼探险,但使用 AWS GUI 启动了 EMR 交互式猪会话。“交互式猪”会话保持正常运行,因此您可以 ssh 进入它们。您也可以从命令行工具执行此操作,但从 GUI 执行此操作要容易一些,因为希望您只需执行一次。然后 ssh 进入集群,将你的测试用例 infile 传输到你的缓存文件和你的映射器上,然后运行这个:

cat infile.txt | yourMapper.R > outfile.txt

这只是为了测试您的映射器是否可以在没有 Hadoop 位的情况下解析 EMR 环境中的 infile。

编辑2:

我将上面的文字留给后代,但真正的问题是你的脚本永远不会回到标准输入来获取更多数据。因此,您为每个映射器运行一次,然后它结束。如果你运行上面的一行,你只会得到一个结果,而不是 infile.txt 中每一行的结果。如果您cat甚至在本地机器上运行测试,错误应该会弹出!

因此,让我们看看 Pete在 R 示例中的字数

#! /usr/bin/env Rscript

trimWhiteSpace <- function(line) gsub("(^ +)|( +$)", "", line)
splitIntoWords <- function(line) unlist(strsplit(line, "[[:space:]]+"))

## **** could wo with a single readLines or in blocks
con <- file("stdin", open = "r")
while (length(line <- readLines(con, n = 1, warn = FALSE)) > 0) {
    line <- trimWhiteSpace(line)
    words <- splitIntoWords(line)
    ## **** can be done as cat(paste(words, "\t1\n", sep=""), sep="")
    for (w in words)
        cat(w, "\t1\n", sep="")
}
close(con)

您的脚本缺少的部分是这一点:

 while (length(line <- readLines(con, n = 1, warn = FALSE)) > 0) {
        #do your dance
        #do your dance quick
        #come on everybody tell me what's the word
        #word up
    }

你当然应该替换 Cameo's Word Up 的歌词!用你的实际逻辑。

请记住,正确的调试音乐可以使过程不那么痛苦:

http://www.youtube.com/watch?v=MZjAantupsA

于 2010-12-14T20:52:55.737 回答