联合功率控制和数据大小选择用于支持机器计算辅助的联邦学习
摘要:联邦学习(FL)已经成为一种应对在多个移动设备上生成的海量原始数据的吸引人的机器学习方法,需要在一个基站(BS)上迭代地聚合每个移动设备的训练模型参数。对于FL中的参数聚合,通过空中计算是一种有效的解决方案,它允许所有移动设备同时传输其参数映射信号到一个BS。由于异构信道衰落和噪声,BS接收到的信号与其期望信号之间存在差异,以均方误差(MSE)度量。为了最小化MSE,我们建议联合优化BS和移动设备处的信号放大因子,以及每个移动设备中涉及本地训练的数据大小(数据样本数量)。由于问题的非凸性,该问题的求解具有挑战性。为了找到最优解,我们对成本函数进行了一些简化和变量替换,同时保持了等价性,并将修改后的问题等价地转化为一个双层问题。对于下层问题,通过枚举从Karush-Kuhn-Tucker(KKT)条件中得到的每个候选解来找到最优解。对于上层问题,通过探索其分段凸性来找到最优解。数值结果表明,与基准方法相比,我们提出的方法可以大大降低MSE,并有助于改善FL的训练性能。
作者:Xuming An, Rongfei Fan, Shiyuan Zuo, Han Hu, Hai Jiang, and Ning Zhang
论文ID:2308.09072
分类:Machine Learning
分类简称:cs.LG
提交时间:2023-08-21