
-
生物通官微
陪你抓住生命科技
跳动的脉搏
由多知识蒸馏驱动的异构联邦学习
《IEEE Journal on Miniaturization for Air and Space Systems》:Heterogeneous Federated Learning Driven by Multi-Knowledge Distillation
【字体: 大 中 小 】 时间:2025年11月28日 来源:IEEE Journal on Miniaturization for Air and Space Systems 2.1
编辑推荐:
针对联邦学习异构场景中模型结构差异与数据分布非独立同分布(Non-IID)导致的联合学习阻塞问题,提出FedMkd框架,通过类粒度logits交互架构(CLIA)和温度自适应知识蒸馏(TAKD)结合类相关知识蒸馏(CRKD),有效降低通信开销并提升模型性能,实验验证优于基线方法。
作为一种保护隐私的分布式学习范式,联邦学习已在许多领域得到广泛应用,如医疗保健[1]、工业制造[2]等。在实际应用中,联邦学习客户端的模型异构性已成为一个不可忽视的关键问题。例如,在智能医疗保健领域,由于业务需求和隐私保护的原因,不同的医疗机构采用了完全不同的模型[3]。同时,不同的设备(如智能手机和可穿戴设备)也需要根据计算资源和数据特征的双重差异来适应不同的模型架构[4]。模型的异构性直接导致传统的参数平均策略无法用于模型训练,这使得模型间的知识传递和聚合面临理论和技术上的瓶颈。因此,为了满足不同用户行为和设备功能的需求,需要部署一种能够在异构硬件、数据分布不均以及模型能力不同的条件下进行调整且具有良好可扩展性的训练框架[5]、[6]、[7]、[8]。异构联邦学习(HtFL)框架应运而生,旨在同时解决数据和模型的异构性问题[9]、[10]。该框架除了共享整个客户端模型外,还探索了其他新的知识共享方案,并改变了主流的参数交互协议。