问题标签 [federated-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - Keras 保存模型后加载模型,为什么要从头开始训练?
这是我的输出,正如你在训练后加载模型时看到的那样,与训练前的值相比,损失的值仍然相同。我真的很困惑。
这是我的代码,我想使用两个模型(合并后,最终合并),我使用load_mode
and model.save
。因为我想模仿联邦学习过程。
希望有人能给我一些想法。
我用for
循环来控制训练过程,输出的是最后一次迭代...,accuracy和loss的值和第一次迭代差不多
object-detection - 使用联邦学习进行对象检测
我计划将联邦学习用于我已经开发的用于检测杂草的对象检测算法。在我研究的过程中,我看到了有关图像分类的联合 tensorflow 示例。喜欢下面的链接: https ://www.tensorflow.org/federated/tutorials/federated_learning_for_image_classification
我的问题是我们可以将联邦学习和联邦张量流用于对象检测算法吗?如果是,请您提供一些链接和示例吗?
tensorflow-federated - 初始化计算以构造服务器状态
在联邦学习上下文中,就像本教程所示,全局模型的初始权重(在服务器级别)随机初始化为: state = iterative_process.initialize()
。我想通过从另一个模型(load_model()
)下载这些初始权重来放置这些初始权重。那么请问我该如何继续,我是TFF的新手。谢谢
python - 联邦学习设置中迭代后精度下降
我正在开展联合学习以检测不良客户。
联邦学习简介 - 数据被分成不同的客户端,训练在客户端完成,然后每个客户端将结果发送到中央服务器,在中央服务器完成客户端权重的聚合,然后再次将聚合模型发送到本地客户端训练。
我正在检测客户端向中央服务器发送恶意更新。我正在使用这里的基本代码。
我编写了一个方法过滤器客户端,它将检测某个客户端是否是恶意的,并将该客户端从聚合步骤中删除。我预计如果从全局聚合中删除客户端权重之一,则性能不会有太大差异,但结果让我感到困惑。我添加了这段代码。noise_client[itr] != 0 只会出现在 1/10 的客户端上,并且在每次迭代中都会出现在同一个客户端上。
如果不使用此代码,则每次迭代的准确性都会稳步提高
但是当使用代码时,前几次迭代的准确度会增加,之后每次迭代都会降低
我尝试将学习率从 0.01 降低到 0.001,并且还减小了批量大小,但之后看到了相同的行为。这可能是什么原因以及如何纠正?
tensorflow-federated - 联邦学习中的什么状态 = iterative_process.initialize()
我是联邦学习的新手,我尝试实现 FL 的代码进行图像分类,但我无法理解这一行:state = iterative_process.initialize()
,权重从哪里影响到服务器?
tensorflow-federated - 警告:张量流:AutoGraph 无法转换在 0x7fca141a6d08> 并将按原样运行
我实现了图像分类的 TFF 代码。TFF 版本 0.18.0,我这样写:
但我发现这个警告:
那么请问我该如何避免这个警告。谢谢
federated-learning - 用于 FDA 批准的应用程序的联合学习
我们对研究联邦学习非常感兴趣。我们拥有许多分布式设备(包括可穿戴设备),并与拥有有用数据的客户建立了合作伙伴关系。当然,还有所有常见的隐私/居住问题。
但是已经提出的一个问题是,如果我们想要获得批准使用经过联邦学习训练的 ML 的应用程序,并且 FDA 希望看到我们用来训练系统的数据,或者至少有一个清晰的画面,我们该怎么做训练前如何处理训练数据。
其他人看过这个吗?在这方面是否有最佳实践。(我知道 - FL 基本上是一个新生婴儿,但可以希望......)
感谢您对此的任何想法。
python - 联合强化学习
我正在通过 PyTorch实现联合深度 Q 学习,使用多个代理,每个代理都运行 DQN。我的问题是,当我为代理使用多个重放缓冲区时,每个代理都在相应的代理处附加经验,每个代理重放缓冲区中的两个经验元素,即“current_state”和“next_state”在第一个时间槽后变得相同。我的意思是在每个缓冲区中,我们看到当前状态的相同值和下一个状态的相同值。我在下面包含了代码和结果的简化部分。为什么在追加时会改变缓冲区中已经存在的当前状态和下一个状态?将缓冲区定义为全局变量有什么问题吗?还是你有别的想法?
python-3.x - 没有名为“tensorflow_federated”的模块
我在 Windows 上,但即使在 google Collab 中我也无法导入它。我确实有适当的互联网。