这两个有区别吗?
在优化问题(尤其是进化优化)的背景下,我遇到了术语决策变量,正如它的定义和实践所表明的那样,这些是我们想要找到最佳值以找到最佳目标函数值的变量。
令我困惑的是,有时决策变量的数量和问题的维度是分开处理的。他们不一样吗?例如,如果我有一个f(x1,x2)
想要优化的 2D 函数,不是x1
决策x2
变量吗?所以,这两个数字都是 2,不是吗?
这两者有什么不同的问题吗?约束优化问题有什么不同吗?
或者,如果它们始终相同,为什么术语不同?
这两个有区别吗?
在优化问题(尤其是进化优化)的背景下,我遇到了术语决策变量,正如它的定义和实践所表明的那样,这些是我们想要找到最佳值以找到最佳目标函数值的变量。
令我困惑的是,有时决策变量的数量和问题的维度是分开处理的。他们不一样吗?例如,如果我有一个f(x1,x2)
想要优化的 2D 函数,不是x1
决策x2
变量吗?所以,这两个数字都是 2,不是吗?
这两者有什么不同的问题吗?约束优化问题有什么不同吗?
或者,如果它们始终相同,为什么术语不同?
根据维基百科,数学优化问题可以表示为:
函数 f 接受参数 x0,这是决策变量。所以空间A,问题空间是一维的。问题的维数和决策变量的个数是同一个概念。如果 f 需要两个参数 f(x0, x1),则将有两个决策变量。
目标空间的维数是函数 f 返回的变量个数。在我们的例子中,f 将一组解 A 映射到实数 R。因此,目标空间的维数为 1。
我们可以定义一个多目标优化问题,其中函数 f 返回一个向量,或者我们尝试一次优化多个函数 f_k。然后问题将被定义为:
The problem dimension is 1 and the objective space has k dimensions. The objectives can be combined to a single objective using a weighted sum or can be optimized using a concept of multi-criteria dominance such as the Pareto dominance.