显然,快速搜索会产生一百万种 Python 中的 memoization 装饰器的实现和风格。但是,我对我无法找到的味道很感兴趣。我希望它可以使存储值的缓存具有固定容量。添加新元素时,如果达到容量,则删除最旧的值并替换为最新的值。
我担心的是,如果我使用 memoization 存储大量元素,那么程序会因为内存不足而崩溃。(我不知道这个问题在实践中有多好。)如果缓存的大小是固定的,那么内存错误就不会成为问题。随着程序的执行,我处理的许多问题都会发生变化,因此初始缓存值看起来与后来的缓存值有很大不同(并且以后再次出现的可能性要小得多)。这就是为什么我希望用最新的东西代替最旧的东西。
我找到了OrderedDict
该类和一个示例,该示例显示了如何对其进行子类化以指定最大大小。我想用它作为我的缓存,而不是普通的dict
. 问题是,我需要 memoize 装饰器来获取一个maxlen
默认为None
. 如果是None
,则缓存是无限的并且正常运行。任何其他值都用作缓存的大小。
我希望它像下面这样工作:
@memoize
def some_function(spam, eggs):
# This would use the boundless cache.
pass
和
@memoize(200) # or @memoize(maxlen=200)
def some_function(spam, eggs):
# This would use the bounded cache of size 200.
pass
下面是我到目前为止的代码,但我看不到如何将参数传递给装饰器,同时使其“裸”和带有参数的工作。
import collections
import functools
class BoundedOrderedDict(collections.OrderedDict):
def __init__(self, *args, **kwds):
self.maxlen = kwds.pop("maxlen", None)
collections.OrderedDict.__init__(self, *args, **kwds)
self._checklen()
def __setitem__(self, key, value):
collections.OrderedDict.__setitem__(self, key, value)
self._checklen()
def _checklen(self):
if self.maxlen is not None:
while len(self) > self.maxlen:
self.popitem(last=False)
def memoize(function):
cache = BoundedOrderedDict() # I want this to take maxlen as an argument
@functools.wraps(function)
def memo_target(*args):
lookup_value = args
if lookup_value not in cache:
cache[lookup_value] = function(*args)
return cache[lookup_value]
return memo_target
@memoize
def fib(n):
if n < 2: return 1
return fib(n-1) + fib(n-2)
if __name__ == '__main__':
x = fib(50)
print(x)
编辑:使用 Ben 的建议,我创建了以下装饰器,我相信它的工作方式与我想象的一样。能够将这些修饰函数与 一起使用对我来说很重要,这multiprocessing
在过去一直是个问题。但是对这段代码的快速测试似乎可以正常工作,即使将作业分配给线程池也是如此。
def memoize(func=None, maxlen=None):
if func:
cache = BoundedOrderedDict(maxlen=maxlen)
@functools.wraps(func)
def memo_target(*args):
lookup_value = args
if lookup_value not in cache:
cache[lookup_value] = func(*args)
return cache[lookup_value]
return memo_target
else:
def memoize_factory(func):
return memoize(func, maxlen=maxlen)
return memoize_factory