2

我有一个使用 python 代码的特定案例。每次我运行代码时,RAM 内存都会增加,直到达到 1.8 GB 并崩溃。

import itertools
import csv
import pokersleuth

cards = ['2s',  '3s',   '4s',   '5s',   '6s',   '7s',   '8s',   '9s',   'Ts',   'Js',   'Qs',   'Ks',   'As',   '2h',   '3h',   '4h',   '5h',   '6h',   '7h',   '8h',   '9h',   'Th',   'Jh',   'Qh',   'Kh',   'Ah',   '2c',   '3c',   '4c',   '5c',   '6c',   '7c',   '8c',   '9c',   'Tc',   'Jc',   'Qc',   'Kc',   'Ac',   '2d',   '3d',   '4d',   '5d',   '6d',   '7d',   '8d',   '9d',   'Td',   'Jd',   'Qd',   'Kd',   'Ad']
flop = itertools.combinations(cards,3)

a1 = 'Ks' ; a2 = 'Qs'
b1 = 'Jc' ; b2 = 'Jd'

cards1 = a1+a2
cards2 = b1+b2

number = 0
n=0
m=0

for row1 in flop:
    if (row1[0] <> a1 and row1[0] <>a2 and row1[0] <>b1 and row1[0] <>b2) and (row1[1] <> a1 and row1[1] <>a2 and row1[1] <>b1 and row1[1] <>b2) and (row1[2] <> a1 and row1[2] <> a2 and row1[2] <> b1 and row1[2] <> b2):
        for row2 in cards:
            if (row2 <> a1 and row2 <> a2 and row2 <> b1 and row2 <> b2 and row2 <> row1[0] and row2 <> row1[1] and row2 <> row1[2]):
                s = pokersleuth.compute_equity(row1[0]+row1[1]+row1[2]+row2, (cards1, cards2))
                if s[0]>=0.5:
                    number +=1
                    del s[:]
                del s[:]

        print number/45.0
        number = 0
        n+=1
4

2 回答 2

2

我发生内存泄漏的测试尚无定论,但假设它没有发生在 montecarlo.dll 中,我想我会尝试multiprocessing.Pool()将工作分成更小的块,然后将它们加载到一些我可以在之前终止的进程中他们开始使用过多的内存:

from itertools import combinations, product, islice
from multiprocessing import Pool
from pokersleuth import compute_equity

num_procs = 4
num_jobs = 256
chunk_size = num_procs * num_jobs

join = ''.join

drawn = a1, a2, b1, b2 = 'Ks', 'Qs', 'Jc', 'Jd'
pairs = (a1 + a2, b1 + b2)

deck = (join(reversed(c)) for c in product('shcd', '23456789TJQKA'))
deck = [card for card in deck if card not in drawn]

def compute_chances(cards):
    return sum(compute_equity(cards + card, pairs)[0] >= 0.5
               for card in deck if card not in cards) / 45.0

if __name__ == '__main__':
    combis = (join(each) for each in combinations(deck, 3))
    i = 0
    while True:
        pool = Pool(processes=num_procs)
        chunk = list(islice(combis, chunk_size))
        for i, chances in enumerate(pool.imap(compute_chances, chunk), i + 1):
            print i, chances
        pool.terminate()
        if len(chunk) < chunk_size:
            break

结果与您的程序中的结果相同。

chunk_size以下是任务管理器关于 17 的最后 7 个循环(17296 与1024的组合)的内存消耗的说明:

10 个循环

每个循环使用大约 400 MB,处理所有组合需要 34 分钟。

我没有手动输入一整副卡片,而是让计算机为我创建它。我拒绝做电脑能做的事情。

为了使传递给每个进程的数据量尽可能少,我只将三张卡的每个组合发送到compute_chances()并在那里计算其他所有内容。

如果 montecarlo.dll 是可重入的,我不确定,但结果似乎表明它是可重入的。

num_procs我的代码中的和的值num_jobs在我的机器上运行良好。您应该与他们一起玩,以找到适合您的最佳设置。

于 2012-11-30T04:55:01.913 回答
1

您在Linux 上运行(对吗?),并且您正在达到系统上的最大进程映像大小,因为 linux 上的进程无法减小其内存大小。视窗。

您的选择是将其拆分,以便它可以在达到内存限制、编译具有更高进程大小限制的内核或在 windows 上运行后恢复。

于 2012-11-29T21:00:31.533 回答