2

我有两台笔记本电脑,想将两台笔记本电脑都用于 DL 模型训练。我在分布式系统方面没有任何经验,想知道是否可以同时使用两台笔记本电脑的处理能力来训练一个模型。怎么样tf.distribute.experimental.ParameterServerStrategy?会有用吗?

4

1 回答 1

1

是的,您可以使用多个设备来训练您的模型,并且您需要在两个设备上完成集群和工作器配置,如下所示。

tf_config = {
    'cluster': {
        'worker': ['localhost:12345', 'localhost:23456']
    },
    'task': {'type': 'worker', 'index': 0}
}

来自 Tensorflow 的这篇关于使用 Keras 进行多工人训练的教程将向您展示有关配置和训练模型的所有详细信息。

希望这能回答你的问题。

于 2020-10-05T15:29:02.043 回答