7

当我使用这个随机生成器时:numpy.random.multinomial,我不断得到:

ValueError: sum(pvals[:-1]) > 1.0

我总是传递这个 softmax 函数的输出:

def softmax(w, t = 1.0):
    e = numpy.exp(numpy.array(w) / t)
    dist = e / np.sum(e)
    return dist

除了现在我收到此错误外,我还为参数(pvals)添加了这个:

while numpy.sum(pvals) > 1:
    pvals /= (1+1e-5)

但这并没有解决它。确保避免此错误的正确方法是什么?

编辑:这是包含此代码的函数

def get_MDN_prediction(vec):
    coeffs = vec[::3]
    means = vec[1::3]
    stds = np.log(1+np.exp(vec[2::3]))
    stds = np.maximum(stds, min_std)
    coe = softmax(coeffs)
    while np.sum(coe) > 1-1e-9:
        coe /= (1+1e-5)
    coeff = unhot(np.random.multinomial(1, coe))
    return np.random.normal(means[coeff], stds[coeff])
4

4 回答 4

7

我在语言建模工作中也遇到了这个问题。

这个问题的根源在于 numpy 的隐式数据转换:我的 sorfmax() 的输出是float32类型,但是,numpy.random.multinomial()将隐式转换pvalfloat64类型。pval.sum()由于数字舍入,这种数据类型转换有时会导致超过 1.0。

此问题已被识别并发布在此处

于 2017-04-07T02:43:40.687 回答
4

我知道这个问题很老,但由于我刚才遇到了同样的问题,在我看来它仍然有效。这是我找到的解决方案:

a = np.asarray(a).astype('float64')
a = a / np.sum(a)
b = np.random.multinomial(1, a, 1)

我把重要的部分加粗了。如果您忽略该部分,您提到的问题将不时发生。但是如果你把数组的类型改成float64,就永远不会发生了。

于 2018-12-04T04:43:04.877 回答
2

很少有人注意到的一点:通过从值中删除 logsumexp 可以很容易地获得 softmax 的稳健版本:

from scipy.misc import logsumexp

def log_softmax(vec):
    return vec - logsumexp(vec)

def softmax(vec):
    return np.exp(log_softmax(vec))

只需检查一下:

print(softmax(np.array([1.0, 0.0, -1.0, 1.1])))

很简单,不是吗?

于 2016-01-24T16:58:55.380 回答
1

我使用的softmax实现对于我使用它的值来说不够稳定。结果,有时输出的总和大于1(例如1.0000024...)。

这种情况应该由while循环处理。但有时输出包含 NaN,在这种情况下永远不会触发循环,并且错误仍然存​​在。

此外,numpy.random.multinomial如果它看到 NaN 也不会引发错误。

这是我现在正在使用的,而不是:

def softmax(vec):
    vec -= min(A(vec))
    if max(vec) > 700:
        a = np.argsort(vec)
        aa = np.argsort(a)
        vec = vec[a]
        i = 0
        while max(vec) > 700:
            i += 1
            vec -= vec[i]
        vec = vec[aa]
    e = np.exp(vec)
    return e/np.sum(e)

def sample_multinomial(w):
    """
       Sample multinomial distribution with parameters given by softmax of w
       Returns an int    
    """
    p = softmax(w)
    x = np.random.uniform(0,1)
    for i,v in enumerate(np.cumsum(p)):
        if x < v: return i
    return len(p)-1 # shouldn't happen...
于 2014-04-24T17:29:36.173 回答