我正在构建一个脚本,该脚本生成输入数据 [参数] 供另一个程序计算。我想优化结果数据。以前我一直在使用 numpy powell 优化。伪代码看起来像这样。
def value(param):
run_program(param)
#Parse output
return value
scipy.optimize.fmin_powell(value,param)
这很好用;但是,它非常慢,因为程序的每次迭代都可能需要数天才能运行。我想做的是粗粒度并行化这个。因此,它不会一次运行一次迭代,而是一次运行(参数数量)*2。例如:
Initial guess: param=[1,2,3,4,5]
#Modify guess by plus minus another matrix that is changeable at each iteration
jump=[1,1,1,1,1]
#Modify each variable plus/minus jump.
for num,a in enumerate(param):
new_param1=param[:]
new_param1[num]=new_param1[num]+jump[num]
run_program(new_param1)
new_param2=param[:]
new_param2[num]=new_param2[num]-jump[num]
run_program(new_param2)
#Wait until all programs are complete -> Parse Output
Output=[[value,param],...]
#Create new guess
#Repeat
变量的数量可以从 3 到 12 不等,因此这样的事情可能会将代码从一年缩短到一周。所有变量都相互依赖,我只是从最初的猜测中寻找局部最小值。我已经开始使用 hessian 矩阵实现;但是,这涉及很多。有没有什么可以做到这一点,有没有更简单的方法,或者有什么建议可以开始?
所以主要问题如下:是否有一种算法可以先进行猜测,生成多个猜测,然后使用这些多个猜测来创建新的猜测,然后重复直到找到阈值。只有解析导数可用。什么是解决这个问题的好方法,是否已经建立了可以做到这一点的东西,还有其他选择吗?
感谢您的时间。
作为一个小更新,我确实通过计算每个维度的三个点的简单抛物线,然后使用最小值作为下一个猜测来完成这项工作。这似乎工作得很好,但不是最佳的。我仍在寻找其他选择。
当前最好的实现是并行化鲍威尔方法的内循环。
谢谢大家的意见。不幸的是,对于这个特定问题,似乎没有一个简明的答案。如果我开始实施一些可以做到这一点的东西,我会把它贴在这里;但是,由于该项目不是特别重要或需要紧迫的结果,我可能会满足于让它占用一个节点一段时间。