当前位置:首页 > 文章列表 > 科技周边 > 人工智能 > 超越SOTA 3.27%,上交大等提出自适应本地聚合新方法

超越SOTA 3.27%,上交大等提出自适应本地聚合新方法

来源:51CTO.COM 2023-04-14 09:42:12 0浏览 收藏

一分耕耘,一分收获!既然打开了这篇文章《超越SOTA 3.27%,上交大等提出自适应本地聚合新方法》,就坚持看下去吧!文中内容包含等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!

本文介绍的是一篇收录于 AAAI 2023 的论文,论文由位于上海交通大学的上海市可扩展计算与系统重点实验室、贝尔法斯特女王大学的华扬老师和路易斯安那州立大学的王灏老师共同完成。

图片

  • 论文链接:​​https://arxiv.org/abs/2212.01197​
  • 代码链接(包含ALA模块的使用说明):​​https://github.com/TsingZ0/FedALA​

该论文提出了一种用于联邦学习的自适应本地聚合方法,通过从全局模型中自动捕获客户机所需信息的方式来应对联邦学习中的统计异质性问题。作者对比了 11 个 SOTA 模型,并取得了超越最优方法 3.27% 的优异表现。作者将其中的自适应本地聚合模块应用到其他联邦学习方法上取得了最多 24.19% 的提升。

1 介绍

联邦学习(FL)通过将用户隐私数据保留在本地而不进行传播的方式,帮助人们在保护隐私的情况下,充分发掘用户数据中蕴含的价值。但由于客户机之间数据不可见,数据的统计异质性(数据非独立同分布(non-IID)和数据量不平衡现象)便成了 FL 的巨大挑战之一。数据的统计异质性使得传统联邦学习方法(如 FedAvg 等)很难通过 FL 过程训练得到适用于每个客户机的单一全局模型。

近年来,个性化联邦学习(pFL)方法因其应对数据统计异质性的能力受到了越来越多的关注。与寻求高质量全局模型的传统 FL 不同,pFL 方法的目标是借助联邦学习的协同计算能力为每个客户机训练适用于自身的个性化模型。现有的在服务器上聚合模型的 pFL 研究可以分为以下三类:

(1) 学习单个全局模型并对其进行微调的方法,包括 Per-FedAvg 和 FedRep;

(2) 学习额外个性化模型的方法,包括 pFedMe 和 Ditto;

(3) 通过个性化聚合(或本地聚合)学习本地模型的方法,包括 FedAMP、FedPHP、FedFomo、APPLE 和 PartialFed。

类别(1)和(2)中的 pFL 方法将全局模型中的所有信息用于本地初始化(指在每次迭代的局部训练之前初始化局部模型)。然而,在全局模型中,只有提高本地模型质量的信息(符合本地训练目标的客户机所需信息)才对客户机有益。全局模型的泛化能力较差是因为其中同时存在对于单一客户机来说需要和不需要的信息。因此,研究者们提出类别(3)中的 pFL 方法,通过个性化聚合捕获全局模型中每个客户机所需的信息。但是,类别(3)中的 pFL 方法依旧存在(a)没有考虑客户机本地训练目标(如 FedAMP 和 FedPHP)、(b)计算代价和通讯代价较高(如 FedFomo 和 APPLE)、(c)隐私泄露(如 FedFomo 和 APPLE)和(d)个性化聚合与本地训练目标不匹配(如 PartialFed)等问题。此外,由于这些方法对 FL 过程做了大量修改,它们使用的个性化聚合方法并不能被直接用于大多数现有 FL 方法。

为了从全局模型中精确地捕获客户机所需信息,且相比于 FedAvg 不增加每一轮迭代中的通讯代价,作者提出了一种用于联邦学习的自适应本地聚合方法(FedALA)。如图 1 所示,FedALA 在每次本地训练之前,通过自适应本地聚合(ALA)模块将全局模型与本地模型进行聚合的方式,捕获全局模型中的所需信息。由于 FedALA 相比于 FedAvg 仅使用 ALA 修改了每一轮迭代中的本地模型初始化过程,而没有改动其他 FL 过程,因此 ALA 可被直接应用于大多数现有的其他 FL 方法,以提升它们的个性化表现。

图片

图 1:在第次迭代中客户机上的本地学习过程

2 方法

2.1 自适应本地聚合(ALA)

图片

图 2:自适应本地聚合(ALA)过程

自适应本地聚合(ALA)过程如图 2 所示。相比于传统联邦学习中直接将下载的全局模型覆盖本地模型得到本地初始化模型的方式(即),FedALA 通过为每个参数学习本地聚合权重,进行自适应本地聚合。

图片


其中,作者把图片这一项称之为“更新”。此外,作者通过逐元素权重剪枝方法图片实现正则化并将图片中的值限制在 [0,1] 中。

因为深度神经网络(DNN)的较低层网络相比于较高层倾向于学习相对更通用的信息,而通用信息是各个本地模型所需信息,所以全局模型中较低层网络中的大部分信息与本地模型中较低层网络所需信息一致。为了降低学习本地聚合权重所需的计算代价,作者引入一个超参数 p 来控制 ALA 的作用范围,使得全局模型中较低层网络参数直接覆盖本地模型中的较低层网络,而只在较高层启用 ALA。

图片

其中,图片表示图片中的神经网络层数(或神经网络块数),图片图片中的低层网络形状一致,图片则与图片中剩下的 p 层高层网络形状一致。

作者将图片中的值全部初始化为 1,且在每一轮本地初始化过程中基于旧的图片更新图片。为了进一步降低计算代价,作者采用随机采样 s

图片

其中,图片是更新图片的学习率。作者在学习图片的过程中,将除图片之外的其他可训练参数冻结。

图片

图 3:在 MNIST 和 Cifar10 数据集上 8 号客户机的学习曲线

通过选择较小的 p 值,在几乎不影响 FedALA 表现的情况下,大幅度地降低 ALA 中训练所需的参数。此外,如图 3,作者观察到:一旦在第一次训练图片将其训练到收敛,即使在后续迭代中训练图片,其对本地模型质量也没有很大影响。也就是说,每个客户机可以复用旧的图片实现对其所需信息的捕获。作者采取在后续迭代中微调图片的方式,降低计算代价。

2.2 ALA 分析

在不影响分析的情况下,为了简便起见,作者忽略图片并设图片。根据上述公式可以得到图片,其中图片代表图片。作者可以把在 ALA 中更新图片看成更新图片

图片

梯度项图片在每一轮中都做了逐元素地缩放。不同于本地模型训练(或 fine-tuning)方法,上述对图片的更新过程能够感知到全局模型中的通用信息。在不同的迭代轮数之间,动态变化的图片为 ALA 模块引入了动态信息,使其 FedALA 容易适应复杂的环境。

3 实验

作者在实际(practical)数据异质环境下的 Tiny-ImageNet 数据集上用 ResNet-18 进行了对超参数 s 和 p 的对 FedALA 影响的研究,如表 1 所示。对于 s 来说,采用越多的随机采样的本地训练数据用于 ALA 模块学习可以使个性化模型表现更好,但也同时增加了计算代价。在使用 ALA 的过程中,可以根据每个客户机的计算能力调整 s 的大小。从表中可以得知,即使使用极小的 s(如 s=5),FedALA 依旧具有杰出的表现。对于 p 来说,不同的 p 值对个性化模型的表现几乎没有影响,在计算代价方面却有着巨大的差别。这一现象也从一个侧面展示了 FedRep 等方法,将模型分割后保留靠近输出的神经网络层在客户机不上传的做法的有效性。使用 ALA 时,我们可以采用较小且合适的 p 值,在保证个性化模型表现能力的情况下,进一步降低计算代价。

图片

表 1:关于超参数和对 FedALA 影响的研究

作者在病态(pathological)数据异质环境和实际(practical)数据异质环境下,将 FedALA 与 11 个 SOTA 方法进行了对比和详细分析。如表 2 所示,数据显示 FedALA 在这些情况下的表现都超越了这 11 个 SOTA 方法,其中 “TINY” 表示在 Tiny-ImageNet 上使用 4-layer CNN。例如,FedALA 在 TINY 情况下比最优基线(baseline)高了 3.27%。

图片

表 2:病态和实际数据异质环境下的实验结果

此外,作者也在不同异质性环境和客户机总量情况下评估了 FedALA 的表现。如表 3 所示,FedALA 在这些情况下依旧保持着优异的表现。

图片

表 3:其他实验结果

根据表 3 的实验结果,将 ALA 模块应用于其他方法可以获得最多 24.19% 的提升。

最后,作者还在 MNIST 上可视化了 ALA 模块的加入对原本 FL 过程中模型训练的影响,如图 4 所示。不激活 ALA 时,模型训练轨迹与使用 FedAvg 一致。一旦 ALA 被激活,模型便可以通过全局模型中捕获的其训练所需信息径直朝着最优目标优化。

图片

图 4:4 号客户机上模型训练轨迹的可视化图

好了,本文到此结束,带大家了解了《超越SOTA 3.27%,上交大等提出自适应本地聚合新方法》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

版本声明
本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
Meta再宣万人大裁员,技术岗最先毕业!小扎写「小作文」找借口,打工人瑟瑟发抖Meta再宣万人大裁员,技术岗最先毕业!小扎写「小作文」找借口,打工人瑟瑟发抖
上一篇
Meta再宣万人大裁员,技术岗最先毕业!小扎写「小作文」找借口,打工人瑟瑟发抖
百事正用AI种土豆,连削皮算法都搞上了
下一篇
百事正用AI种土豆,连削皮算法都搞上了
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 毕业宝AIGC检测:AI生成内容检测工具,助力学术诚信
    毕业宝AIGC检测
    毕业宝AIGC检测是“毕业宝”平台的AI生成内容检测工具,专为学术场景设计,帮助用户初步判断文本的原创性和AI参与度。通过与知网、维普数据库联动,提供全面检测结果,适用于学生、研究者、教育工作者及内容创作者。
    23次使用
  • AI Make Song:零门槛AI音乐创作平台,助你轻松制作个性化音乐
    AI Make Song
    AI Make Song是一款革命性的AI音乐生成平台,提供文本和歌词转音乐的双模式输入,支持多语言及商业友好版权体系。无论你是音乐爱好者、内容创作者还是广告从业者,都能在这里实现“用文字创造音乐”的梦想。平台已生成超百万首原创音乐,覆盖全球20个国家,用户满意度高达95%。
    33次使用
  • SongGenerator.io:零门槛AI音乐生成器,快速创作高质量音乐
    SongGenerator
    探索SongGenerator.io,零门槛、全免费的AI音乐生成器。无需注册,通过简单文本输入即可生成多风格音乐,适用于内容创作者、音乐爱好者和教育工作者。日均生成量超10万次,全球50国家用户信赖。
    30次使用
  •  BeArt AI换脸:免费在线工具,轻松实现照片、视频、GIF换脸
    BeArt AI换脸
    探索BeArt AI换脸工具,免费在线使用,无需下载软件,即可对照片、视频和GIF进行高质量换脸。体验快速、流畅、无水印的换脸效果,适用于娱乐创作、影视制作、广告营销等多种场景。
    34次使用
  • SEO标题协启动:AI驱动的智能对话与内容生成平台 - 提升创作效率
    协启动
    SEO摘要协启动(XieQiDong Chatbot)是由深圳协启动传媒有限公司运营的AI智能服务平台,提供多模型支持的对话服务、文档处理和图像生成工具,旨在提升用户内容创作与信息处理效率。平台支持订阅制付费,适合个人及企业用户,满足日常聊天、文案生成、学习辅助等需求。
    36次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码