基于区块链的分层联邦学习中的滞后节点缓解和延迟优化
摘要:基于区块链的分层云边设备联邦学习(BHFL)已被最近提出,旨在实现高效通信和隐私保护的分布式学习。然而,存在一些关键挑战,如边缘服务器和本地设备中的单点故障和潜在滞后者。为了解决这些问题,我们提出了一种去中心化和容忍滞后者的基于区块链的BHFL框架。具体而言,在边缘服务器上部署了一种基于Raft协议的财团区块链,为BHFL中的全局模型聚合提供了分布式和可信的计算环境。为了减轻滞后者对学习的影响,我们提出了一种新的聚合方法HieAvg,它利用滞后者的历史权重来估计缺失的提交。此外,我们通过同时考虑全局模型收敛和区块链一致延迟的约束来优化BHFL的总延迟。理论分析和实验评估表明,我们提出的基于HieAvg的BHFL可以在存在滞后者的情况下收敛,即使损失函数是非凸的,并且本地设备上的数据是非独立同分布的(non-IID),性能也优于传统方法。
作者:Zhilin Wang, Qin Hu, Minghui Xu, Zeihui Xiong
论文ID:2308.01296
分类:Distributed, Parallel, and Cluster Computing
分类简称:cs.DC
提交时间:2023-08-03