我想用分布式 TensorFlow (如 MPI 的 bcast)实现从主管向所有工作人员广播一些值: https ://mpi4py.readthedocs.io/en/stable/tutorial.html#collective-communication
我猜broadcast_send或tf.raw_ops.CollectiveBcastSend是操作,但我在TensorFlow 官方文档上没有找到任何示例。
有没有一个很好的例子来使用这种行级分布式操作?
我想用分布式 TensorFlow (如 MPI 的 bcast)实现从主管向所有工作人员广播一些值: https ://mpi4py.readthedocs.io/en/stable/tutorial.html#collective-communication
我猜broadcast_send或tf.raw_ops.CollectiveBcastSend是操作,但我在TensorFlow 官方文档上没有找到任何示例。
有没有一个很好的例子来使用这种行级分布式操作?