在大型 data.table 中替换 NA 的最快方法

我有一个大的 Data.table,其中有许多丢失的值散布在大约200k 行和200列中。我想尽可能有效地将这些 NA 值重新编码为零。

我看到两个选择:
1: 转换为一个 data.frame,并使用类似于这样的东西 < a href = “ http://r. 789695.n4.nabble.com/How-to-place-all-lt-NA-gt-values-in-a-data-frame-with-another-not-0-value-td2125458.html”rel = “ noReferrer”>
一些很酷的 data.table 子设置命令

我对类型1的相当有效的解决方案感到满意。转换为 data.frame 然后返回 data.table 不会花费太长时间。

104977 次浏览

我的理解是,在 R 中快速运算的秘诀是利用向量(或数组,它们是隐藏在引擎盖下的向量)

在这个解决方案中,我使用了 data.matrix,它是 array,但行为有点像 data.frame。因为它是一个数组,所以您可以使用一个非常简单的向量替换来替换 NA:

一个小小的 helper 函数来删除 NA。本质上是一行代码。我这样做只是为了测量执行时间。

remove_na <- function(x){
dm <- data.matrix(x)
dm[is.na(dm)] <- 0
data.table(dm)
}

一个小的 helper 函数,用于创建给定大小的 data.table

create_dt <- function(nrow=5, ncol=5, propNA = 0.5){
v <- runif(nrow * ncol)
v[sample(seq_len(nrow*ncol), propNA * nrow*ncol)] <- NA
data.table(matrix(v, ncol=ncol))
}

在一个小样本上演示:

library(data.table)
set.seed(1)
dt <- create_dt(5, 5, 0.5)


dt
V1        V2        V3        V4        V5
[1,]        NA 0.8983897        NA 0.4976992 0.9347052
[2,] 0.3721239 0.9446753        NA 0.7176185 0.2121425
[3,] 0.5728534        NA 0.6870228 0.9919061        NA
[4,]        NA        NA        NA        NA 0.1255551
[5,] 0.2016819        NA 0.7698414        NA        NA


remove_na(dt)
V1        V2        V3        V4        V5
[1,] 0.0000000 0.8983897 0.0000000 0.4976992 0.9347052
[2,] 0.3721239 0.9446753 0.0000000 0.7176185 0.2121425
[3,] 0.5728534 0.0000000 0.6870228 0.9919061 0.0000000
[4,] 0.0000000 0.0000000 0.0000000 0.0000000 0.1255551
[5,] 0.2016819 0.0000000 0.7698414 0.0000000 0.0000000

下面是在 gdata包中使用 NAToUnknown的解决方案。我使用安德烈的解决方案创建了一个巨大的数据表,还包括与安德烈的解决方案的时间比较。

# CREATE DATA TABLE
dt1 = create_dt(2e5, 200, 0.1)


# FUNCTIONS TO SET NA TO ZERO
f_gdata  = function(dt, un = 0) gdata::NAToUnknown(dt, un)
f_Andrie = function(dt) remove_na(dt)


# COMPARE SOLUTIONS AND TIMES
system.time(a_gdata  <- f_gdata(dt1))


user  system elapsed
4.224   2.962   7.388


system.time(a_andrie <- f_Andrie(dt1))


user  system elapsed
4.635   4.730  20.060


identical(a_gdata, g_andrie)


TRUE

这里有一个使用 Data.table:=操作符的解决方案,建立在 Andrie 和 Ramnath 的答案之上。

require(data.table)  # v1.6.6
require(gdata)       # v2.8.2


set.seed(1)
dt1 = create_dt(2e5, 200, 0.1)
dim(dt1)
[1] 200000    200    # more columns than Ramnath's answer which had 5 not 200


f_andrie = function(dt) remove_na(dt)


f_gdata = function(dt, un = 0) gdata::NAToUnknown(dt, un)


f_dowle = function(dt) {     # see EDIT later for more elegant solution
na.replace = function(v,value=0) { v[is.na(v)] = value; v }
for (i in names(dt))
eval(parse(text=paste("dt[,",i,":=na.replace(",i,")]")))
}


system.time(a_gdata = f_gdata(dt1))
user  system elapsed
18.805  12.301 134.985


system.time(a_andrie = f_andrie(dt1))
Error: cannot allocate vector of size 305.2 Mb
Timing stopped at: 14.541 7.764 68.285


system.time(f_dowle(dt1))
user  system elapsed
7.452   4.144  19.590     # EDIT has faster than this


identical(a_gdata, dt1)
[1] TRUE

注意,f _ dowle 通过引用更新了 dt1。如果需要本地副本,则需要显式调用 copy函数来创建整个数据集的本地副本。Table 的 setkeykey<-:=不是写复制。

接下来,让我们看看 f _ dowle 在哪里消磨时间。

Rprof()
f_dowle(dt1)
Rprof(NULL)
summaryRprof()
$by.self
self.time self.pct total.time total.pct
"na.replace"           5.10    49.71       6.62     64.52
"[.data.table"         2.48    24.17       9.86     96.10
"is.na"                1.52    14.81       1.52     14.81
"gc"                   0.22     2.14       0.22      2.14
"unique"               0.14     1.36       0.16      1.56
... snip ...

在这里,我将集中讨论 na.replaceis.na,其中有一些矢量拷贝和矢量扫描。通过编写一个小的 na.place C 函数,该函数在向量中通过引用更新 NA,可以相当容易地消除这些错误。那至少能把20秒的时间缩短一半。这样的函数在任何 R 包中都存在吗?

f_andrie失败的原因可能是因为它复制了整个 dt1,或者创建了一个与整个 dt1一样大的逻辑矩阵,复制了几次。另外两个方法一次处理一个列(尽管我只简要地看了一下 NAToUnknown)。

EDIT (Ramnath 在评论中要求的更优雅的解决方案) :

f_dowle2 = function(DT) {
for (i in names(DT))
DT[is.na(get(i)), (i):=0]
}


system.time(f_dowle2(dt1))
user  system elapsed
6.468   0.760   7.250   # faster, too


identical(a_gdata, dt1)
[1] TRUE

我真希望一开始就是这样!

EDIT2 (一年多以后,现在)

还有 set()。如果有大量的列被循环通过,这可以更快,因为它避免了在循环中调用 [,:=,]的(小)开销。set是一个可循环的 :=。见 ?set

f_dowle3 = function(DT) {
# either of the following for loops


# by name :
for (j in names(DT))
set(DT,which(is.na(DT[[j]])),j,0)


# or by number (slightly faster than by name) :
for (j in seq_len(ncol(DT)))
set(DT,which(is.na(DT[[j]])),j,0)
}
library(data.table)


DT = data.table(a=c(1,"A",NA),b=c(4,NA,"B"))


DT
a  b
1:  1  4
2:  A NA
3: NA  B


DT[,lapply(.SD,function(x){ifelse(is.na(x),0,x)})]
a b
1: 1 4
2: A 0
3: 0 B

仅供参考,比 gdata 或 data.Matrix 慢,但只使用 data.table 包,并且可以处理非数字条目。

为了完整起见,用0替换 NA 的另一种方法是使用

f_rep <- function(dt) {
dt[is.na(dt)] <- 0
return(dt)
}

为了比较结果和次数,到目前为止,我已经采用了所有提到的方法。

set.seed(1)
dt1 <- create_dt(2e5, 200, 0.1)
dt2 <- dt1
dt3 <- dt1


system.time(res1 <- f_gdata(dt1))
User      System verstrichen
3.62        0.22        3.84
system.time(res2 <- f_andrie(dt1))
User      System verstrichen
2.95        0.33        3.28
system.time(f_dowle2(dt2))
User      System verstrichen
0.78        0.00        0.78
system.time(f_dowle3(dt3))
User      System verstrichen
0.17        0.00        0.17
system.time(res3 <- f_unknown(dt1))
User      System verstrichen
6.71        0.84        7.55
system.time(res4 <- f_rep(dt1))
User      System verstrichen
0.32        0.00        0.32


identical(res1, res2) & identical(res2, res3) & identical(res3, res4) & identical(res4, dt2) & identical(dt2, dt3)
[1] TRUE

因此,新方法比 f_dowle3稍慢,但比其他所有方法都快。但是说实话,这违背了我对 data.table 语法的直觉,我不知道为什么这样做。有人能告诉我吗?

> DT = data.table(a=LETTERS[c(1,1:3,4:7)],b=sample(c(15,51,NA,12,21),8,T),key="a")
> DT
a  b
1: A 12
2: A NA
3: B 15
4: C NA
5: D 51
6: E NA
7: F 15
8: G 51
> DT[is.na(b),b:=0]
> DT
a  b
1: A 12
2: A  0
3: B 15
4: C  0
5: D 51
6: E  0
7: F 15
8: G 51
>

这是我能想到的最简单的一个:

dt[is.na(dt)] <- 0

它是高效的,不需要编写函数和其他粘合代码。

data.table软件包(版本 > = 1.12.4)提供了用于此目的的专用函数(nafillsetnafill) :

它并行处理列,所以很好地解决以前发布的基准,低于其计时与最快的方法,直到现在,也扩大规模,使用40核机器。

library(data.table)
create_dt <- function(nrow=5, ncol=5, propNA = 0.5){
v <- runif(nrow * ncol)
v[sample(seq_len(nrow*ncol), propNA * nrow*ncol)] <- NA
data.table(matrix(v, ncol=ncol))
}
f_dowle3 = function(DT) {
for (j in seq_len(ncol(DT)))
set(DT,which(is.na(DT[[j]])),j,0)
}


set.seed(1)
dt1 = create_dt(2e5, 200, 0.1)
dim(dt1)
#[1] 200000    200
dt2 = copy(dt1)
system.time(f_dowle3(dt1))
#   user  system elapsed
#  0.193   0.062   0.254
system.time(setnafill(dt2, fill=0))
#   user  system elapsed
#  0.633   0.000   0.020   ## setDTthreads(1) elapsed: 0.149
all.equal(dt1, dt2)
#[1] TRUE


set.seed(1)
dt1 = create_dt(2e7, 200, 0.1)
dim(dt1)
#[1] 20000000    200
dt2 = copy(dt1)
system.time(f_dowle3(dt1))
#   user  system elapsed
# 22.997  18.179  41.496
system.time(setnafill(dt2, fill=0))
#   user  system elapsed
# 39.604  36.805   3.798
all.equal(dt1, dt2)
#[1] TRUE

使用 data.table最新版本1.12.6的 fifelse功能,它甚至比 gdata包中的 NAToUnknown快10倍:

z = data.table(x = sample(c(NA_integer_, 1), 2e7, TRUE))
system.time(z[,x1 := gdata::NAToUnknown(x, 0)])


#   user  system elapsed
#  0.798   0.323   1.173
system.time(z[,x2:= fifelse(is.na(x), 0, x)])


#   user  system elapsed
#  0.172   0.093   0.113

为了将其推广到许多列,您可以使用这种方法(使用以前的示例数据,但添加一个列) :

z = data.table(x = sample(c(NA_integer_, 1), 2e7, TRUE), y = sample(c(NA_integer_, 1), 2e7, TRUE))


z[, names(z) := lapply(.SD, function(x) fifelse(is.na(x), 0, x))]

不过没测速度