跳转到内容

英文维基 | 中文维基 | 日文维基 | 草榴社区

聯邦學習

本页使用了标题或全文手工转换
维基百科,自由的百科全书

联邦学习是一种机器学习技术,具體來說就是人們在多个擁有本地数据样本的分散式边缘设备服务器上训练算法。这种方法与传统的集中式机器学习技术有顯著不同,传统的集中式机器学习技术将所有的本地数据集上传到一个服务器上,而更经典的分散式方法则通常假设本地数据样本都是相同分布的。联合学习使多个參與者能够在不共享数据的情况下建立一个共同的、强大的机器学习模型,从而可以解决数据隐私、数据安全、数据访问权限和异构数据访问等关键问题。

联合平均(FedAvg)是 FedSGD 的泛化,允许本地节点对本地数据进行多次批量更新,并交换更新的权重而不是梯度。此外,对来自相同初始化的调整权重进行平均并不一定会损害所得平均模型的性能。尽管它很简单,但它在现实环境中缺乏理论保证。

传统的联邦学习是基于每个worker设备(节点)的梯度下降:在每一轮中,每个worker通过其本地数据集在本地多次更新其梯度下降权重,然后中央节点聚合器对权重进行平均所有工人,并再次分配给工人。对多轮重复上述过程。这种方法的主要缺点是效率低。众所周知,由于频繁的梯度传输导致的高通信开销会减慢 FL。为了减轻通信开销,已经研究了两种主要技术:(i)表征通信和计算之间权衡的权重的本地更新和(ii)表征通信和精度之间权衡的梯度压缩。[1].

参考文献

[编辑]

引用

[编辑]
  1. ^ Khademi Nori Milad, Yun Sangseok, Kim Il-Min, Fast Federated Learning by Balancing Communication Trade-Offs (德文) 

来源

[编辑]
书籍