“FL 流程始于与所有设备共享的全局模型。每台设备在本地训练模型,并将更新发送到中央服务器,在那里汇总以改进模型,”学者们说。“然后将这个更新的模型分发回设备进行进一步训练。FL 循环迭代多次,直到全局模型达到所需的最佳精度。”
该团队的模型在每台机器上本地运行,包括一个长短期记忆 (LSTM) 架构、一个 dropout 单元和两个完全连接的密集层。LSTM 处理顺序数据,而 dropout 单元减少过度拟合,密集层有助于做出最终预测。
该模型还使用超参数来调整本地 LSTM 模型并在中央服务器上对类似客户端进行聚类。这些超参数在训练开始前设置,控制着机器学习模型的训练过程。