12

关于这个答案,有没有一种快速的方法来计算具有不相等数量元素的组的数组的中位数?

例如:

data =  [1.00, 1.05, 1.30, 1.20, 1.06, 1.54, 1.33, 1.87, 1.67, ... ]
index = [0,    0,    1,    1,    1,    1,    2,    3,    3,    ... ]

然后我想计算每组的数字和中位数之间的差异(例如,组的中位数01.025所以第一个结果是1.00 - 1.025 = -0.025)。因此对于上面的数组,结果将显示为:

result = [-0.025, 0.025, 0.05, -0.05, -0.19, 0.29, 0.00, 0.10, -0.10, ...]

由于np.median.reduceat不存在(尚),是否有另一种快速的方法来实现这一目标?我的数组将包含数百万行,因此速度至关重要!

可以假设索引是连续且有序的(如果不是,则很容易转换它们)。


性能比较的示例数据:

import numpy as np

np.random.seed(0)
rows = 10000
cols = 500
ngroup = 100

# Create random data and groups (unique per column)
data = np.random.rand(rows,cols)
groups = np.random.randint(ngroup, size=(rows,cols)) + 10*np.tile(np.arange(cols),(rows,1))

# Flatten
data = data.ravel()
groups = groups.ravel()

# Sort by group
idx_sort = groups.argsort()
data = data[idx_sort]
groups = groups[idx_sort]
4

4 回答 4

7

有时,如果您真的想加快计算速度,您需要编写非惯用的 numpy 代码,而原生 numpy 无法做到这一点。

numba将您的 python 代码编译为低级 C。由于许多 numpy 本身通常与 C 一样快,因此如果您的问题不适合使用 numpy 进行本机矢量化,这通常会很有用。这是一个示例(我假设索引是连续且已排序的,这也反映在示例数据中):

import numpy as np
import numba

# use the inflated example of roganjosh https://stackoverflow.com/a/58788534
data =  [1.00, 1.05, 1.30, 1.20, 1.06, 1.54, 1.33, 1.87, 1.67]
index = [0,    0,    1,    1,    1,    1,    2,    3,    3] 

data = np.array(data * 500) # using arrays is important for numba!
index = np.sort(np.random.randint(0, 30, 4500))               

# jit-decorate; original is available as .py_func attribute
@numba.njit('f8[:](f8[:], i8[:])') # explicit signature implies ahead-of-time compile
def diffmedian_jit(data, index): 
    res = np.empty_like(data) 
    i_start = 0 
    for i in range(1, index.size): 
        if index[i] == index[i_start]: 
            continue 

        # here: i is the first _next_ index 
        inds = slice(i_start, i)  # i_start:i slice 
        res[inds] = data[inds] - np.median(data[inds]) 

        i_start = i 

    # also fix last label 
    res[i_start:] = data[i_start:] - np.median(data[i_start:])

    return res

以下是一些使用 IPython%timeit魔法的时间:

>>> %timeit diffmedian_jit.py_func(data, index)  # non-jitted function
... %timeit diffmedian_jit(data, index)  # jitted function
...
4.27 ms ± 109 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
65.2 µs ± 1.01 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

使用问题中更新的示例数据,这些数字(即 python 函数的运行时间与 JIT 加速函数的运行时间)是

>>> %timeit diffmedian_jit.py_func(data, groups) 
... %timeit diffmedian_jit(data, groups)
2.45 s ± 34.4 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
93.6 ms ± 518 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)

这相当于使用加速代码在较小的情况下加速了 65 倍,在较大的情况下加速了 26 倍(当然,与缓慢的循环代码相比)。另一个好处是(与使用本机 numpy 的典型向量化不同)我们不需要额外的内存来实现这个速度,这完全是关于最终运行的优化和编译的低级代码。


上面的函数假定int64默认情况下是 numpy int 数组,而在 Windows 上实际上并非如此。因此,另一种方法是从对 的调用中删除签名numba.njit,从而触发正确的即时编译。但这意味着函数将在第一次执行期间编译,这可能会干扰计时结果(我们可以手动执行一次函数,使用代表性数据类型,或者只是接受第一次计时执行会慢得多,这应该被忽略)。这正是我试图通过指定一个触发提前编译的签名来防止的。

无论如何,在正确的 JIT 情况下,我们需要的装饰器只是

@numba.njit
def diffmedian_jit(...):

请注意,我为 jit 编译的函数显示的上述时间仅适用于编译函数后。这要么发生在定义时(使用急切编译,当显式签名传递给时numba.njit),或者发生在第一个函数调用期间(使用惰性编译,当没有签名传递给时numba.njit)。如果函数只执行一次,那么编译时间也应该考虑这个方法的速度。如果编译 + 执行的总时间小于未编译的运行时,通常只值得编译函数(在上述情况下实际上是这样,本机 python 函数非常慢)。这主要发生在您多次调用编译函数时。

正如max9111在评论中指出的那样,的一个重要特征numbacache关键字to jit。传递cache=Truetonumba.jit会将编译后的函数存储到磁盘,以便在给定 python 模块的下一次执行期间,该函数将从那里加载而不是重新编译,从长远来看,这再次可以节省您的运行时间。

于 2019-11-10T12:26:22.133 回答
5

一种方法是在Pandas这里纯粹使用groupby. 我稍微放大了输入大小,以便更好地理解时序(因为创建 DF 存在开销)。

import numpy as np
import pandas as pd

data =  [1.00, 1.05, 1.30, 1.20, 1.06, 1.54, 1.33, 1.87, 1.67]
index = [0,    0,    1,    1,    1,    1,    2,    3,    3]

data = data * 500
index = np.sort(np.random.randint(0, 30, 4500))

def df_approach(data, index):
    df = pd.DataFrame({'data': data, 'label': index})
    df['median'] = df.groupby('label')['data'].transform('median')
    df['result'] = df['data'] - df['median']

给出以下内容timeit

%timeit df_approach(data, index)
5.38 ms ± 50.1 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)

对于相同的样本量,我得到Aryerez 的 dict 方法为

%timeit dict_approach(data, index)
8.12 ms ± 3.47 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

但是,如果我们将输入再增加 10 倍,则时间变为:

%timeit df_approach(data, index)
7.72 ms ± 85 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)

%timeit dict_approach(data, index)
30.2 ms ± 10.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

然而,以牺牲一些可靠性为代价,Di ​​vakar使用纯 numpy 的答案出现在:

%timeit bin_median_subtract(data, index)
573 µs ± 7.48 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

根据新数据集(实际上应该在开始时设置):

%timeit df_approach(data, groups)
472 ms ± 2.52 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

%timeit bin_median_subtract(data, groups) #https://stackoverflow.com/a/58788623/4799172
3.02 s ± 31.9 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)

%timeit dict_approach(data, groups) #https://stackoverflow.com/a/58788199/4799172
<I gave up after 1 minute>

# jitted (using @numba.njit('f8[:](f8[:], i4[:]') on Windows) from  https://stackoverflow.com/a/58788635/4799172
%timeit diffmedian_jit(data, groups)
132 ms ± 3.12 ms per loop (mean ± std. dev. of 7 runs, 10 loops each)
于 2019-11-10T12:12:36.633 回答
4

也许你已经这样做了,但如果没有,看看这是否足够快:

median_dict = {i: np.median(data[index == i]) for i in np.unique(index)}
def myFunc(my_dict, a): 
    return my_dict[a]
vect_func = np.vectorize(myFunc)
median_diff = data - vect_func(median_dict, index)
median_diff

输出:

array([-0.025,  0.025,  0.05 , -0.05 , -0.19 ,  0.29 ,  0.   ,  0.1  ,
   -0.1  ])
于 2019-11-10T11:28:29.690 回答
4

这是一种基于 NumPy 的方法,用于获取正 bin/index 值的 binned-median -

def bin_median(a, i):
    sidx = np.lexsort((a,i))

    a = a[sidx]
    i = i[sidx]

    c = np.bincount(i)
    c = c[c!=0]

    s1 = c//2

    e = c.cumsum()
    s1[1:] += e[:-1]

    firstval = a[s1-1]
    secondval = a[s1]
    out = np.where(c%2,secondval,(firstval+secondval)/2.0)
    return out

为了解决我们减去的特定情况 -

def bin_median_subtract(a, i):
    sidx = np.lexsort((a,i))

    c = np.bincount(i)

    valid_mask = c!=0
    c = c[valid_mask]    

    e = c.cumsum()
    s1 = c//2
    s1[1:] += e[:-1]
    ssidx = sidx.argsort()
    starts = c%2+s1-1
    ends = s1

    starts_orgindx = sidx[np.searchsorted(sidx,starts,sorter=ssidx)]
    ends_orgindx  = sidx[np.searchsorted(sidx,ends,sorter=ssidx)]
    val = (a[starts_orgindx] + a[ends_orgindx])/2.
    out = a-np.repeat(val,c)
    return out
于 2019-11-10T12:25:01.997 回答