还有一个选择是ave
. 为了更好地衡量,我收集了上面的答案,尽力使它们的输出等效(向量),并使用您的示例数据作为输入提供了超过 1000 次运行的时间。首先,我的回答使用ave
: ave(df$x, df$index, FUN = function(z) z/sum(z))
。我还展示了一个使用data.table
包的示例,因为它通常很快,但我知道您正在寻找基本解决方案,因此如果您愿意,可以忽略它。
现在是一堆时间:
library(data.table)
library(plyr)
dt <- data.table(df)
plyr <- function() ddply(df, .(index), transform, z = x / sum(x))
av <- function() ave(df$x, df$index, FUN = function(z) z/sum(z))
t.apply <- function() unlist(tapply(df$x, df$index, function(x) x/sum(x)))
l.apply <- function() unlist(lapply(split(df$x, df$index), function(x){x/sum(x)}))
b.y <- function() unlist(by(df$x, df$index, function(x){x/sum(x)}))
agg <- function() aggregate(df$x, list(df$index), function(x){x/sum(x)})
d.t <- function() dt[, x/sum(x), by = index]
library(rbenchmark)
benchmark(plyr(), av(), t.apply(), l.apply(), b.y(), agg(), d.t(),
replications = 1000,
columns = c("test", "elapsed", "relative"),
order = "elapsed")
#-----
test elapsed relative
4 l.apply() 0.052 1.000000
2 av() 0.168 3.230769
3 t.apply() 0.257 4.942308
5 b.y() 0.694 13.346154
6 agg() 1.020 19.615385
7 d.t() 2.380 45.769231
1 plyr() 5.119 98.442308
在lapply()
这种情况下,解决方案似乎赢了,而且data.table()
速度出奇的慢。让我们看看这如何扩展到更大的聚合问题:
df <- data.frame(x = sample(1:100, 1e5, TRUE), index = gl(1000, 100))
dt <- data.table(df)
#Replication code omitted for brevity, used 100 replications and dropped plyr() since I know it
#will be slow by comparison:
test elapsed relative
6 d.t() 2.052 1.000000
1 av() 2.401 1.170078
3 l.apply() 4.660 2.270955
2 t.apply() 9.500 4.629630
4 b.y() 16.329 7.957602
5 agg() 20.541 10.010234
这似乎更符合我的预期。
总之,您有很多不错的选择。找到一种或两种适用于聚合任务应该如何工作的心智模型的方法,并掌握该功能。给猫剥皮的多种方法。
编辑 - 和一个 1e7 行的例子
可能对马特来说不够大,但我的笔记本电脑可以处理而不会崩溃:
df <- data.frame(x = sample(1:100, 1e7, TRUE), index = gl(10000, 1000))
dt <- data.table(df)
#-----
test elapsed relative
6 d.t() 0.61 1.000000
1 av() 1.45 2.377049
3 l.apply() 4.61 7.557377
2 t.apply() 8.80 14.426230
4 b.y() 8.92 14.622951
5 agg() 18.20 29.83606