16

我在这里读到matplotlib 擅长处理大型数据集。我正在编写一个数据处理应用程序,并将 matplotlib 绘图嵌入到 wx 中,并且发现 matplotlib 在处理大量数据方面非常糟糕,无论是在速度方面还是在内存方面。除了对输入进行下采样之外,有谁知道加快(减少内存占用)matplotlib 的方法?

为了说明 matplotlib 对内存的影响,请考虑以下代码:

import pylab
import numpy
a = numpy.arange(int(1e7)) # only 10,000,000 32-bit integers (~40 Mb in memory)
# watch your system memory now...
pylab.plot(a) # this uses over 230 ADDITIONAL Mb of memory
4

3 回答 3

6

下采样在这里是一个很好的解决方案——在 matplotlib 中绘制 10M 点会消耗大量内存和时间。如果您知道可以接受多少内存,则可以根据该数量进行下采样。例如,假设 1M 点需要 23 MB 额外的内存,并且您发现它在空间和时间方面是可以接受的,因此您应该下采样,使其始终低于 1M 点:

if(len(a) > 1M):
   a = scipy.signal.decimate(a, int(len(a)/1M)+1)
pylab.plot(a)

或者类似上面的片段(上面的采样可能过于激进,不适合您的口味。)

于 2011-06-14T15:49:08.920 回答
1

我也经常对极值感兴趣,所以在绘制大块数据之前,我以这种方式进行:

import numpy as np

s = np.random.normal(size=(1e7,))
decimation_factor = 10 
s = np.max(s.reshape(-1,decimation_factor),axis=1)

# To check the final size
s.shape

当然np.max只是极限计算函数的一个例子。

PS使用numpy“跨步技巧”应该可以避免在重塑期间复制数据。

于 2013-07-15T22:53:56.133 回答
1

我对保留对数采样图的一侧很感兴趣,所以我想出了这个:(下采样是我的第一次尝试)

def downsample(x, y, target_length=1000, preserve_ends=0):
    assert len(x.shape) == 1
    assert len(y.shape) == 1
    data = np.vstack((x, y))
    if preserve_ends > 0:
        l, data, r = np.split(data, (preserve_ends, -preserve_ends), axis=1)
    interval = int(data.shape[1] / target_length) + 1
    data = data[:, ::interval]
    if preserve_ends > 0:
        data = np.concatenate([l, data, r], axis=1)
    return data[0, :], data[1, :]

def geom_ind(stop, num=50):
    geo_num = num
    ind = np.geomspace(1, stop, dtype=int, num=geo_num)
    while len(set(ind)) < num - 1:
        geo_num += 1
        ind = np.geomspace(1, stop, dtype=int, num=geo_num)
    return np.sort(list(set(ind) | {0}))

def log_downsample(x, y, target_length=1000, flip=False):
    assert len(x.shape) == 1
    assert len(y.shape) == 1
    data = np.vstack((x, y))
    if flip:
        data = np.fliplr(data)
    data = data[:, geom_ind(data.shape[1], num=target_length)]
    if flip:
        data = np.fliplr(data)
    return data[0, :], data[1, :]

这使我能够更好地保留情节的一侧:

newx, newy = downsample(x, y, target_length=1000, preserve_ends=50)
newlogx, newlogy = log_downsample(x, y, target_length=1000)
f = plt.figure()
plt.gca().set_yscale("log")
plt.step(x, y, label="original")
plt.step(newx, newy, label="downsample")
plt.step(newlogx, newlogy, label="log_downsample")
plt.legend()

测试

于 2019-05-15T22:49:43.930 回答