1

我想加快这段简短的代码

      max_x=array([max(x[(id==dummy)]) for dummy in ids])

x并且id是相同维度的numpy数组,并且ids是较小维度的数组。使用矢量运算的快速方法是什么?

4

3 回答 3

3

除非 id 具有某种结构,否则进一步进行矢量化并不容易(据我所知)。否则瓶颈可能id==dummy经常发生,但我能想到的唯一解决方案是使用排序,并且由于 np.max() 缺乏减少功能仍然需要相当多的 python 代码(编辑:有实际上是通过 np.fmax 提供的 reduce 函数)。对于 ax 为 1000x1000 并且 id/ids 在 0..100 中,这大约快 3 倍,但由于它相当复杂,它仅对于具有许多 id 的较大问题是值得的:

def max_at_ids(x, id, ids):
    # create a 1D view of x and id:
    r_x = x.ravel()
    r_id = id.ravel()
    sorter = np.argsort(r_id)

    # create new sorted arrays:
    r_id = r_id[sorter]; r_x = r_x[sorter]

    # unfortunatly there is no reduce functionality for np.max...

    ids = np.unique(ids) # create a sorted, unique copy, just in case

    # w gives the places where the sorted arrays id changes:
    w = np.where(r_id[:-1] != r_id[1:])[0] + 1

我最初提供了这个解决方案,它在切片上执行纯 python 循环,但下面是一个更短(更快)的版本:

    # The result array:
    max_x = np.empty(len(ids), dtype=r_x.dtype)
    start_idx = 0; end_idx = w[0]
    i_ids = 0
    i_w = 0

    while i_ids < len(ids) and i_w < len(w) + 1:
        if ids[i_ids] == r_id[start_idx]:
            max_x[i_ids] = r_x[start_idx:end_idx].max()
            i_ids += 1
            i_w += 1
        elif ids[i_ids] > r_id[start_idx]:
            i_w += 1
        else:
            i_ids += 1
            continue # skip updating start_idx/end_idx

        start_idx = end_idx
        # Set it to None for the last slice (might be faster to do differently)
        end_idx = w[i_w] if i_w < len(w) else None

    return ids, max_x

编辑:用于计算每个切片最大值的改进版本:

有一种方法可以通过使用来删除 python 循环,np.fmax.reduceat如果切片很小(实际上非​​常优雅),它可能会比前一个循环好很多:

# just to 0 at the start of w
# (or calculate first slice by hand and use out=... keyword argument to avoid even
# this copy.
w = np.concatenate(([0], w))
max_x = np.fmin.reduceat(r_x, w)
return ids, max_x

现在可能有一些小事情可以让它更快一点。如果 id/ids 具有某种结构,则应该可以简化代码,并且可能使用不同的方法来实现更大的加速。否则这段代码的加速应该很大,只要有很多(唯一的)id(并且 x/id 数组不是很小)。请注意,代码强制执行 np.unique(ids),但这可能是一个很好的假设。

于 2012-08-15T14:02:55.603 回答
1

使用x[(id==dummy)].max()而不是内置max应该可以加快速度。

于 2012-08-15T10:45:49.917 回答
0

scipy.ndimage.maximum正是这样做的:

import numpy as np
from scipy import ndimage as nd

N = 100  # number of values
K = 10   # number of class

# generate random data
x   = np.random.rand(N)
ID  = np.random.randint(0,K,N)  # random id class for each xi's
ids = np.random.randint(0,K,5)  # select 5 random class

# do what you ask
max_per_id = nd.maximum(x,labels=ID,index=ids)

print dict(zip(ids,max_per_id))

如果要计算所有 id 的最大值,请执行ids = ID

ids请注意,如果在 in中找不到特定类ID(即该类没有标记 x),则该类的最大回报为0

于 2014-01-10T11:02:31.517 回答