我有一个网络抓取脚本,每分钟获取一次新数据,但在几天的时间里,该脚本最终使用了 200mb 或更多的内存,我发现这是因为 mechanize 为.back() 函数使用。
我查看了文档字符串,发现了浏览器类的 clear_history() 函数,每次刷新时我都会调用它,但每次页面刷新时我仍然会获得 2-3mb 的更高内存使用量。 编辑:嗯,好像在我调用 clear_history 之后它一直在做同样的事情,直到我达到大约 30mb 的内存使用量,然后它又清除到 10mb 左右(这是我的程序启动的基本内存量与)...有什么方法可以更频繁地强制这种行为?
如何防止机械化存储所有这些信息?我不需要保留任何东西。我想将我的 python 脚本的内存使用量保持在 15mb 以下。