以下程序将调用fun 2 ^ (MAXD + 1) 次。不过,最大递归深度不应该超过 MAXD(如果我的想法是正确的)。因此编译可能需要一些时间,但它不应该吃掉我的 RAM。
#include<iostream>
const int MAXD = 20;
constexpr int fun(int x, int depth=0){
return depth == MAXD ? x : fun(fun(x + 1, depth + 1) + 1, depth + 1);
}
int main(){
constexpr int i = fun(1);
std::cout << i << std::endl;
}
问题是吃我的内存正是它的作用。当我将 MAXD 提高到 30 时,我的笔记本电脑在 GCC 4.7.2 快速分配 3 GB 左右后开始交换。我还没有尝试使用 clang 3.1,因为我现在无法访问它。
我唯一的猜测是,这与 GCC 试图过于聪明并记住函数调用有关,就像它对模板所做的那样。如果是这样,他们没有限制他们做多少记忆似乎并不奇怪,比如 MRU 缓存表的大小或其他什么?我还没有找到禁用它的开关。
我为什么要这样做?我正在考虑制作一个高级编译时库的想法,比如基因编程之类的。由于编译器没有编译时尾调用优化,我担心任何循环都需要递归并且(即使我调高最大递归深度参数,这看起来有点难看)会快速分配我所有的 RAM 并填充它带有毫无意义的堆栈帧。因此,我想出了上述解决方案,用于在没有深堆栈的情况下获得任意多个函数调用。这样的功能可用于折叠/循环或蹦床。
编辑:现在我已经在clang 3.1中尝试过了,它根本不会泄漏内存,无论我让它工作多长时间(即我做MAXD多高)。CPU 使用率几乎是 100%,内存使用率几乎是 0%,正如预期的那样。也许这只是 GCC 中的一个错误。