基于Transformer的多模态个性化联邦学习

曹行健, 孙罡, 虞红芳

PDF(1371 KB)
PDF(1371 KB)
电子科技大学学报 ›› 2025, Vol. 54 ›› Issue (02) : 242-249.

基于Transformer的多模态个性化联邦学习

  • 曹行健, 孙罡, 虞红芳
作者信息 +
History +

摘要

在当前物联网飞速发展的背景下,处理来自各种信息采集设备的多模态数据,尤其是视觉、听觉信号和文本等多元感官信息的数据,对于机器学习落地应用至关重要。Transformer架构和其衍生的大模型在自然语言处理和计算机视觉中的卓越表现推动了对复杂多模态数据处理能力的追求。然而,这也带来了数据隐私安全和满足个性化需求的挑战。为解决这些挑战,提出一种基于多模态Transformer的个性化联邦学习方法,它支持异构数据模态的联邦学习,在保护参与方数据隐私的前提下为其训练更符合其个性化需求的多模态模型。该方法显著提升了多模态个性化模型的性能:相较于对比方法,准确率提高了15%,这标志着多模态个性化联邦学习在应用场景限制上的突破。

关键词

多模态 / Transformer / 联邦学习 / 个性化

中图分类号

TP18

引用本文

导出引用
曹行健, 孙罡, 虞红芳. 基于Transformer的多模态个性化联邦学习. 电子科技大学学报. 2025, 54(02): 242-249

基金

国家重点研发计划(2021YFB3101001)

评论

PDF(1371 KB)

Accesses

Citation

Detail

段落导航
相关文章

/