2

我实现了图像分类的 TFF 代码。TFF 版本 0.18.0,我这样写:

iterative_process = tff.learning.build_federated_averaging_process(model_fn, server_optimizer_fn=lambda: tf.keras.optimizers.SGD(learning_rate=1.0), client_optimizer_fn=lambda: tf.keras.optimizers.SGD(learning_rate=0.001))

state = iterative_process.initialize()

但我发现这个警告:

WARNING:tensorflow:AutoGraph could not transform <function <lambda> at 0x7fca141a6d08> and will run it as-is.
Cause: could not parse the source code of <function <lambda> at 0x7fca141a6d08>: found multiple definitions with identical signatures at the location. This error may be avoided by defining each lambda on a single line and with unique argument names.
Match 0:
(lambda : tf.keras.optimizers.SGD(learning_rate=1.0))

Match 1:
(lambda : tf.keras.optimizers.SGD(learning_rate=0.001))

To silence this warning, decorate the function with @tf.autograph.experimental.do_not_convert

那么请问我该如何避免这个警告。谢谢

4

1 回答 1

1

首先,这个警告对我来说似乎没有问题。TFF 需要构造优化器的函数,以防这些优化器依赖于内部变量(例如 Adagrad 和 Adam,它们是有状态的并使用变量来跟踪预处理和动量项)——TFF 需要能够捕获这些变量的构造以确保正确代码可以在设备上运行,因此不需要 autograph 来转换这些函数——Python 函数足以实现此目的。

其次,我认为可以消除警告的一个简单选项是为优化器 fns 使用命名函数。也就是说,如果你使用类似的东西


def server_optimizer_fn():
  return tf.keras.optimizers.SGD(learning_rate=1.)

def client_optimizer_fn():
  return tf.keras.optimizers.SGD(learning_rate=0.001)

iterative_process = tff.learning.build_federated_averaging_process(
    model_fn,
    server_optimizer_fn=server_optimizer_fn,
    client_optimizer_fn=client_optimizer_fn)

签名不应再抱怨。

于 2021-04-05T00:45:01.227 回答