1

我在一个数据框中有两列,并且我已经能够删除所有重复unique( )的行 - 有效。

但是现在我想删除行是值是相同的,不管它们在哪一列。就像......

data1    data2
data3    data2
data2    data1
data2    data3

应该简化为

data1    data2
data3    data2

因为第 3 行和第 4 行与第 1 行和第 2 行相同。

有任何想法吗?

4

2 回答 2

3

首先按列对每一行进行排序(使用applyand sort),然后使用unique

dat <- read.table(text="
data1    data2
data3    data2
data2    data1
data2    data3")

unique(t(apply(dat, 1, sort)))
     [,1]    [,2]   
[1,] "data1" "data2"
[2,] "data2" "data3"
于 2012-06-16T10:34:45.850 回答
0

我将使用您粘贴在一起的排序列创建一个新列,然后使用 unique() 。

# create some dummy data
adf <- data.frame(colA=c('data1', 'data3', 'data2', 'data2'),
       colB=c('data2', 'data2', 'data1', 'data3'), stringsAsFactors=FALSE)

# function to fix up this data...
# can't see a way of avoiding the loop at the moment, but I'm sure somebody will!
fixit <- function(adf) {
  nc <- vector(mode='character', length=nrow(adf))
  for (i in 1:nrow(adf)) {
    nc[i] <- paste(sort(c(adf[i,1], adf[i,2])), collapse='')
  } 
  adf[!duplicated(nc),]
} 
fixit(adf)

在大 data.frame 上循环会很慢,但可以通过使用来加速

library(compiler)
faster.fixit <- cmpfun(fixit)
faster.fixit(adf)

我知道这有点离题,但有趣的是,当我对这个循环函数进行基准测试时,字节编译的版本只快了大约 5%

# create a bigger test data.frame
N <- 10
adf.bigger <- data.frame(colA=rep(adf$colA, N), colB=rep(adf$colB, N),
               stringsAsFactors=FALSE)

N <- 1000
adf.biggest <- data.frame(colA=rep(adf$colA, N), colB=rep(adf$colB, N),
               stringsAsFactors=FALSE)

library(microbenchmark)
microbenchmark(fixit(adf), faster.fixit(adf), times=1000L)
microbenchmark(fixit(adf.bigger), faster.fixit(adf.bigger), times=1000L)
microbenchmark(fixit(adf.biggest), faster.fixit(adf.biggest), times=100L)
于 2012-06-16T09:45:07.800 回答