57

假设您需要制作一个仅使用预定义的 tensorflow 构建块无法实现的激活函数,您能做什么?

所以在 Tensorflow 中可以制作自己的激活函数。但它相当复杂,你必须用 C++ 编写它并重新编译整个 tensorflow [1] [2]

有没有更简单的方法?

4

2 回答 2

84

就在这里!

信用: 很难找到信息并使其正常工作,但这里是从此处此处找到的原则和代码复制的示例。

要求: 在我们开始之前,有两个要求才能成功。首先,您需要能够将您的激活编写为 numpy 数组上的函数。其次,您必须能够将该函数的导数编写为 Tensorflow 中的函数(更简单),或者在最坏的情况下编写为 numpy 数组上的函数。

写激活函数:

因此,让我们以这个我们想要使用激活函数的函数为例:

def spiky(x):
    r = x % 1
    if r <= 0.5:
        return r
    else:
        return 0

如下所示: 尖刺激活

第一步是将其变成一个 numpy 函数,这很容易:

import numpy as np
np_spiky = np.vectorize(spiky)

现在我们应该写出它的导数。

激活梯度: 在我们的例子中很简单,如果 x mod 1 < 0.5 则为 1,否则为 0。所以:

def d_spiky(x):
    r = x % 1
    if r <= 0.5:
        return 1
    else:
        return 0
np_d_spiky = np.vectorize(d_spiky)

现在是用它制作 TensorFlow 函数的困难部分。

将 numpy fct 转换为 tensorflow fct: 我们首先将 np_d_spiky 转换为 tensorflow 函数。tensorflow tf.py_func(func, inp, Tout, stateful=stateful, name=name) [doc]中有一个函数可以将任何 numpy 函数转换为 tensorflow 函数,因此我们可以使用它:

import tensorflow as tf
from tensorflow.python.framework import ops

np_d_spiky_32 = lambda x: np_d_spiky(x).astype(np.float32)


def tf_d_spiky(x,name=None):
    with tf.name_scope(name, "d_spiky", [x]) as name:
        y = tf.py_func(np_d_spiky_32,
                        [x],
                        [tf.float32],
                        name=name,
                        stateful=False)
        return y[0]

tf.py_func作用于张量列表(并返回张量列表),这就是我们拥有[x](并返回y[0])的原因。选项是告诉 tensorflow 函数是否总是为相同的stateful输入提供相同的输出(stateful = False),在这种情况下,tensorflow 可以简单地生成 tensorflow 图,这是我们的情况,并且在大多数情况下可能都是这种情况。此时要注意的一件事是使用了 numpyfloat64但使用了 tensorflow float32,因此您需要先将函数转换为使用float32,然后才能将其转换为 tensorflow 函数,否则 tensorflow 会报错。这就是为什么我们需要先制作np_d_spiky_32

梯度呢?仅执行上述操作的问题是,即使我们现在拥有tf_d_spiky的 tensorflow 版本np_d_spiky,但如果我们愿意,我们也无法将其用作激活函数,因为 tensorflow 不知道如何计算该函数的梯度。

Hack to get Gradients:正如上面提到的资料中所解释的,有一个 hack 可以使用tf.RegisterGradient [doc]tf.Graph.gradient_override_map [doc]定义函数的梯度。从harpone复制代码,我们可以修改tf.py_func函数以使其同时定义渐变:

def py_func(func, inp, Tout, stateful=True, name=None, grad=None):
    
    # Need to generate a unique name to avoid duplicates:
    rnd_name = 'PyFuncGrad' + str(np.random.randint(0, 1E+8))
    
    tf.RegisterGradient(rnd_name)(grad)  # see _MySquareGrad for grad example
    g = tf.get_default_graph()
    with g.gradient_override_map({"PyFunc": rnd_name}):
        return tf.py_func(func, inp, Tout, stateful=stateful, name=name)

现在我们差不多完成了,唯一的一点是我们需要传递给上述 py_func 函数的 grad 函数需要采用特殊形式。它需要接受一个操作,以及操作之前的先前梯度,并在操作之后将梯度向后传播。

梯度函数:所以对于我们的尖峰激活函数,我们会这样做:

def spikygrad(op, grad):
    x = op.inputs[0]

    n_gr = tf_d_spiky(x)
    return grad * n_gr  

激活函数只有一个输入,这就是为什么x = op.inputs[0]。如果操作有很多输入,我们需要返回一个元组,每个输入一个梯度。例如,如果操作是相对于is和相对于isa-b的梯度,那么我们将有. 请注意,我们需要返回输入的 tensorflow 函数,这就是为什么需要,因为它不能作用于 tensorflow 张量而不起作用。或者,我们可以使用 tensorflow 函数编写导数:a+1b-1return +1*grad,-1*gradtf_d_spikynp_d_spiky

def spikygrad2(op, grad):
    x = op.inputs[0]
    r = tf.mod(x,1)
    n_gr = tf.to_float(tf.less_equal(r, 0.5))
    return grad * n_gr  

将它们组合在一起:现在我们已经有了所有的部分,我们可以将它们组合在一起:

np_spiky_32 = lambda x: np_spiky(x).astype(np.float32)

def tf_spiky(x, name=None):
    
    with tf.name_scope(name, "spiky", [x]) as name:
        y = py_func(np_spiky_32,
                        [x],
                        [tf.float32],
                        name=name,
                        grad=spikygrad)  # <-- here's the call to the gradient
        return y[0]

现在我们完成了。我们可以测试它。

测试:

with tf.Session() as sess:

    x = tf.constant([0.2,0.7,1.2,1.7])
    y = tf_spiky(x)
    tf.initialize_all_variables().run()
    
    print(x.eval(), y.eval(), tf.gradients(y, [x])[0].eval())

[ 0.2 0.69999999 1.20000005 1.70000005] [ 0.2 0. 0.20000005 0.] [ 1. 0. 1. 0.]

成功!

于 2016-10-07T16:08:19.520 回答
17

为什么不简单地使用 tensorflow 中已有的函数来构建你的新函数呢?

对于您的答案spiky中的功能,这可能如下所示

def spiky(x):
    r = tf.floormod(x, tf.constant(1))
    cond = tf.less_equal(r, tf.constant(0.5))
    return tf.where(cond, r, tf.constant(0))

我认为这要容易得多(甚至不需要计算任何梯度),除非你想做真正奇特的事情,否则我几乎无法想象 tensorflow 不提供构建高度复杂的激活函数的构建块。

于 2017-07-22T19:51:00.677 回答