5

例子:

import sys

class Test():
    def __init__(self):
        self.a = 'a'
        self.b = 'b'
        self.c = 'c'
        self.d = 'd'
        self.e = 'e'

if __name__ == '__main__':
    test = [Test() for i in range(100000)]
    print(sys.getsizeof(test))

在 Windows 任务管理器中:创建 100000 与 10 的列表时,我得到了约 20 MB 的跳跃。

使用 sys.getsizeoff():对于 100000 的列表,我得到 412,236 字节;对于 10 个列表,我得到 100 个字节。

这似乎非常不成比例。为什么会这样?

4

2 回答 2

2

分配的内存不是不成比例的;您正在创建 100,000 个对象!如您所见,它们占用了大约 34 MB 的空间:

>>> sys.getsizeof(Test())+sys.getsizeof(Test().__dict__)
344
>>> (sys.getsizeof(Test())+sys.getsizeof(Test().__dict__)) * 1000000 / 10**6
34.4 #megabytes

您可以使用 获得较小的改进__slots__,但您仍需要大约 20MB 的内存来存储这 100,000 个对象。

>>> sys.getsizeof(Test2())+sys.getsizeof(Test2().__slots__)
200
>>> sys.getsizeof(Test2())+sys.getsizeof(Test2().__slots__) * 1000000 / 10**6
20.0 #megabytes

感谢 mensi 的回答sys.getsizeof没有考虑引用。您可以自动完成以查看对象的大部分属性。)

请参阅 SO 答案:使用 __slots__? http://docs.python.org/release/2.5.2/ref/slots.html

要使用__slots__

class Test2():
    __slots__ = ['a','b','c','d','e']

    def __init__(self):
        ...
于 2012-07-31T23:05:40.200 回答
1

对于您的示例,每个实例都引用了一个 dict,它__dict__在我的机器上是 272 字节。乘以 100'000。

于 2012-07-31T23:09:19.760 回答