我的目标是使用PyGmo执行参数估计(模型校准) 。我的模型将是一个外部“黑色 blox”模型(c 代码),输出J
要最小化的目标函数(在这种情况下,J 将是模型输出和测量数据之间的“归一化均方根误差”(NRMSE)。加快优化(校准)我想在多个核心/线程上并行运行我的模型/模拟。因此我想在 PyGMO 中使用批量适应度评估器(bfe)。我使用简单的问题类准备了一个最小示例,但是使用纯python(无外部模型)和罗森布洛克问题:
#!/usr/bin/env python
# coding: utf-8
import numpy as np
from fmpy import read_model_description, extract, simulate_fmu, freeLibrary
from fmpy.fmi2 import FMU2Slave
import pygmo as pg
from mpl_toolkits.mplot3d import Axes3D
import matplotlib.pyplot as plt
from matplotlib import cm
import time
#-------------------------------------------------------
def main():
# Optimization
# Define problem
class my_problem:
def __init__(self, dim):
self.dim = dim
def fitness(self, x):
J = np.zeros((1,))
for i in range(len(x) - 1):
J[0] += 100.*(x[i + 1]-x[i]**2)**2+(1.-x[i])**2
return J
def get_bounds(self):
return (np.full((self.dim,),-5.),np.full((self.dim,),10.))
def get_name(self):
return "My implementation of the Rosenbrock problem"
def get_extra_info(self):
return "\nDimensions: " + str(self.dim)
def batch_fitness(self, dvs):
J = [123] * len(dvs)
return J
prob = pg.problem(my_problem(30))
print('\n----------------------------------------------')
print('\nProblem description: \n')
print(prob)
#-------------------------------------------------------
dvs = pg.batch_random_decision_vector(prob, 1)
print('\n----------------------------------------------')
print('\nBarch fitness evaluation:')
print('\ndvs length:' + str(len(dvs)))
print('\ndvs:')
print(dvs)
udbfe = pg.default_bfe()
b = pg.bfe(udbfe=udbfe)
print('\nudbfe:')
print(udbfe)
print('\nbfe:')
print(b)
fvs = b(prob, dvs)
print(fvs)
#-------------------------------------------------------
pop_size = 50
gen_size = 1000
algo = pg.algorithm(pg.sade(gen = gen_size)) # The algorithm (a self-adaptive form of Differential Evolution (sade - jDE variant)
algo.set_verbosity(int(gen_size/10)) # We set the verbosity to 100 (i.e. each 100 gen there will be a log line)
print('\n----------------------------------------------')
print('\nOptimization:')
start = time.time()
pop = pg.population(prob, size = pop_size) # The initial population
pop = algo.evolve(pop) # The actual optimization process
best_fitness = pop.get_f()[pop.best_idx()] # Getting the best individual in the population
print('\n----------------------------------------------')
print('\nResult:')
print('\nBest fitness: ', best_fitness) # Get the best parameter set
best_parameterset = pop.get_x()[pop.best_idx()]
print('\nBest parameter set: ',best_parameterset)
print('\nTime elapsed for optimization: ', time.time() - start, ' seconds\n')
if __name__ == '__main__':
main()
当我尝试运行此代码时,出现以下错误:
发生异常:ValueError
功能:bfe_check_output_fvs
其中:C:\projects\pagmo2\src\detail\bfe_impl.cpp, 103
什么:批量适应度评估产生了无效结果:产生的适应度向量的数量为 30,与输入决策向量的数量为 1 不同
通过删除或删除这两行:
fvs = b(prob, dvs)
print(fvs)
该脚本可以无错误地运行。
我的问题:
- 如何使用批量适应度评估?(我知道这是 PyGMO 的一项新功能,他们仍在编写文档......)有人可以举一个关于如何实现它的最小示例吗?
- 这是加快我的模型校准问题的正确方法吗?还是我应该使用岛屿和群岛?如果我没记错的话,群岛中的岛屿不会相互交流,对吧?因此,如果执行例如粒子群优化并希望同时(并行)评估多个目标函数调用,那么批量适应度评估器是正确的选择吗?
- 在这个例子中我需要关心群岛和岛屿吗?它们究竟是为了什么?是否值得运行几个优化但具有不同的初始 x(目标函数的输入)然后采取最佳解决方案?这是使用 GA 进行优化的常用方法吗?
我对优化和 PyGMO 领域非常了解,所以谢谢你的帮助!