我有矩阵,其中元素可以定义为算术表达式,并编写了 Python 代码来优化这些表达式中的参数,以最小化矩阵的特定特征值。我曾经scipy
这样做过,但想知道是否有可能,NLopt
因为我想尝试更多它拥有的算法(无衍生变体)。
在scipy
我会做这样的事情:
import numpy as np
from scipy.linalg import eig
from scipy.optimize import minimize
def my_func(x):
y, w = x
arr = np.array([[y+w,-2],[-2,w-2*(w+y)]])
ev, ew=eig(arr)
return ev[0]
x0 = np.array([10, 3.45]) # Initial guess
minimize(my_func, x0)
在 NLopt 我试过这个:
import numpy as np
from scipy.linalg import eig
import nlopt
def my_func(x,grad):
arr = np.array([[x[0]+x[1],-2],[-2,x[1]-2*(x[1]+x[0])]])
ev, ew=eig(arr)
return ev[0]
opt = nlopt.opt(nlopt.LN_BOBYQA, 2)
opt.set_lower_bounds([1.0,1.0])
opt.set_min_objective(my_func)
opt.set_xtol_rel(1e-7)
x = opt.optimize([10.0, 3.5])
minf = opt.last_optimum_value()
print "optimum at ", x[0],x[1]
print "minimum value = ", minf
print "result code = ", opt.last_optimize_result()
这将返回:
ValueError: nlopt invalid argument
NLopt 能够处理这个问题吗?