我正在研究 tensorflow-federated API 以使用真正的多台机器进行联合学习。但是我在这个网站上找到了不支持使用多重学习进行真正的多重联邦学习的答案。
有没有办法用真正的多台机器进行联邦学习?
即使我用 2 个客户端 PC 和 1 个服务器 PC 制作了一个用于联邦学习的网络结构,是否不可能使用 tensorflow 联邦 API 组成该系统?
或者即使我应用了代码,我不能制作我想要的系统吗?
如果可以修改代码进行配置,能否给个提示?如果不能,什么时候有实例在真机上配置?
我正在研究 tensorflow-federated API 以使用真正的多台机器进行联合学习。但是我在这个网站上找到了不支持使用多重学习进行真正的多重联邦学习的答案。
有没有办法用真正的多台机器进行联邦学习?
即使我用 2 个客户端 PC 和 1 个服务器 PC 制作了一个用于联邦学习的网络结构,是否不可能使用 tensorflow 联邦 API 组成该系统?
或者即使我应用了代码,我不能制作我想要的系统吗?
如果可以修改代码进行配置,能否给个提示?如果不能,什么时候有实例在真机上配置?
TFF 实际上是关于表达您希望执行的联合计算。在物理部署方面,TFF 包括两个不同的运行时:一个“引用执行器”,它简单地解释 TFF 生成的句法工件,全部在 Python 中,没有任何花哨的构造或优化;另一个仍在开发中,但在教程中进行了演示,它使用asyncio执行器的层次结构来实现灵活的执行器架构。这两者都是关于模拟和 FL 研究,而不是关于部署到设备。
原则上,这可能会解决您的问题(特别是,请参阅 参考资料tff.framework.RemoteExecutor)。但我假设您正在询问更多关于部署到“真实”FL 系统的信息,例如来自您无法控制的来源的数据。这确实超出了 TFF 的范围。从常见问题解答:
尽管我们在设计 TFF 时考虑了部署到真实设备,但现阶段我们目前不为此目的提供任何工具。当前版本旨在用于实验用途,例如表达新颖的联合算法,或使用包含的模拟运行时使用您自己的数据集尝试联合学习。
我们预计,随着时间的推移,围绕 TFF 的开源生态系统将发展到包括针对物理部署平台的运行时。