我正在尝试优化功能objective
。
full_constr_data
由 6 类目标组成,每个目标按年份划分,每年由基于项目的数据表示。因此,我通过functionfull_constr_data
的参数对项目进行加权,例如意味着“目标 #0,年份 #2,项目 #3 的加权结果存储在变量中。x
objective
full_constr_data[0][2][3] * x[3]
x[3]
full_constr_data_weighted
下一步是对full_constr_data_weighted
. 例如,将目标 #0、第 2 年的所有项目相加:
full_constr_data_weighted[0][2][0] + full_constr_data_weighted[0][2][1] + ... + full_constr_data_weighted[0][2][n]
其中'n' - 项目总数。数据存储在变量中full_sum
。
之后,我正在计算概率。我从变量中取分位数,constr_mod
并根据该值计算超过分位数的概率。constr_mod
并且full_sum
具有完全相同的结构,但是对于每个目标 # 和接下来的一年 #constr_mode
包含一个值,同时full_sum
具有值向量(分布)。计算出的概率存储到变量my_prob
中。
最后,我总结了my_prob
. 我必须优化这个总和:使其尽可能大(注意return
语句中的减号)。
优化问题有一个不等式约束:obj
加权向量的总和x
应大于 1000。解释obj
为每个项目的 NPV。
我使用diffev2
from package mystic
。
变量full_constr_data
, constr_mod
, pen_mult
,obj
存储在my_data.spydata file
:通过 Google Drive 下载
不幸的是,优化没有收敛:
Generation 11980 has ChiSquare: inf
Generation 11990 has ChiSquare: inf
Generation 12000 has ChiSquare: inf
STOP("EvaluationLimits with {'evaluations': 1200000, 'generations': 12000}")
有什么建议可以解决这个非凸问题吗?
import numpy as np
from mystic.solvers import diffev2
from mystic.monitors import VerboseMonitor
import mystic.symbolic as ms
def objective(x):
# 'full_constr_data' weighted by argument 'x'
full_constr_data_weighted = []
for i in range(len(full_constr_data)):
temp = []
for k in range(len(full_constr_data[i])):
temp.append( [ full_constr_data[i][k][m] * x[m] \
for m in range(len(full_constr_data[i][k])) ] )
full_constr_data_weighted.append(temp)
# Project-wise sum of weighted data
full_sum = []
for i in range(len(full_constr_data_weighted)):
temp = []
for j in range(len(full_constr_data_weighted[i])):
temp2 = np.array( [ 0 for m in range(len(full_constr_data_weighted[i][j][0])) ] )
for k in range(len(full_constr_data_weighted[i][j])):
temp2 = temp2 + full_constr_data_weighted[i][j][k]
temp.append(temp2)
full_sum.append(temp)
# Probability calculation
my_prob = []
for i in range(len(full_sum)):
temp = []
for j in range(len(full_sum[i])):
temp.append(sum(full_sum[i][j] > constr_mod[i][j]) / len(full_sum[i][j]))
my_prob.append(np.array(temp))
# Probability data weighted by 'pen_mult'
my_prob_uweighted = list(np.array(my_prob) * np.array(pen_mult))
# Sum of all weighted probability data (function to maximize)
sum_prob = sum([sum(my_prob_uweighted[i]) for i in range(len(my_prob_uweighted))])
return -sum_prob
# Inequality constraint
equation = 'x0*{0} + x1*{1} + x2*{2} + x3*{3} + x4*{4} + x5*{5} + x6*{6} + x7*{7} + x8*{8} + x9*{9} + x10*{10} + x11*{11} + x12*{12} + x13*{13} + x14*{14} + x15*{15} + x16*{16} + x17*{17} + x18*{18} + x19*{19} + x20*{20} + x21*{21} + x22*{22} + x23*{23} + x24*{24} + x25*{25} + x26*{26} + x27*{27} + x28*{28} + x29*{29} >= {30}'\
.format(obj[0], obj[1], obj[2], obj[3], obj[4], obj[5], obj[6], obj[7], obj[8], obj[9],
obj[10], obj[11], obj[12], obj[13], obj[14], obj[15], obj[16], obj[17], obj[18], obj[19],
obj[20], obj[21], obj[22], obj[23], obj[24], obj[25], obj[26], obj[27], obj[28], obj[29],
1000)
cf = ms.generate_constraint(ms.generate_solvers(ms.simplify(equation)))
bounds = [(0,1)]*30
mon = VerboseMonitor(10)
result = diffev2(objective, x0=bounds, bounds=bounds, constraints=cf, \
npop=40, gtol=200, disp=False, full_output=True, itermon=mon)