我对特定 python 脚本的内存使用情况感到非常困惑。我想我真的不知道如何描述使用情况,尽管有几个 SO Questions/ Answers的建议。
我的问题是:和有什么区别?为什么一个告诉我我正在使用大量内存,而另一个告诉我我没有?memory_profiler
guppy.hpy
我正在使用pysam
一个用于访问生物信息学 SAM/BAM 文件的库。在将 SAM(ASCII)转换为 BAM(二进制)并在其间操作文件时,我的主脚本很快就会耗尽内存。
我创建了一个小测试示例来了解在每个步骤中分配了多少内存。
# test_pysam.py:
import pysam
#from guppy import hpy
TESTFILENAME = ('/projectnb/scv/yannpaul/MAR_CEJ082/' +
'test.sam')
#H = hpy()
@profile # for memory_profiler
def samopen(filename):
# H.setrelheap()
samf = pysam.Samfile(filename)
# print H.heap()
pass
if __name__ == "__main__":
samopen(TESTFILENAME)
使用 memory_profiler ( python -m memory_profiler test_pysam.py
) 监控内存使用情况会产生以下输出:
Filename: test_pysam.py
Line # Mem usage Increment Line Contents
================================================
10 @profile # for memory_profiler
11 def samopen(filename):
12 10.48 MB 0.00 MB # print H.setrelheap()
13 539.51 MB 529.03 MB samf = pysam.Samfile(filename)
14 # print H.heap()
15 539.51 MB 0.00 MB pass
然后注释掉@profile
装饰器并取消注释guppy
相关行,我得到以下输出(python test_pysam.py
):
Partition of a set of 3 objects. Total size = 624 bytes.
Index Count % Size % Cumulative % Kind (class / dict of class)
0 1 33 448 72 448 72 types.FrameType
1 1 33 88 14 536 86 __builtin__.weakref
2 1 33 88 14 624 100 csamtools.Samfile
第 13 行的总大小在一种情况下为 529.03 MB,在另一种情况下为 624 字节。这里到底发生了什么?'test.sam' 是一个约 52MB 的 SAM(还是 ASCII 格式)文件。深入研究 对我来说有点棘手pysam
,因为它是与samtools
. 不管 aSamfile
实际上是什么,我认为我应该能够了解分配了多少内存来创建它。我应该使用什么程序来正确分析更大、更复杂的 python 程序的每个步骤的内存使用情况?