当前位置:首页 > 文章列表 > 科技周边 > 人工智能 > 北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

来源:机器之心 2024-10-29 20:27:41 0浏览 收藏

知识点掌握了,还需要不断练习才能熟练运用。下面golang学习网给大家带来一个科技周边开发实战,手把手教大家学习《北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba》,在实现功能的过程中也带大家重新温习相关知识点,温故而知新,回头看看说不定又有不一样的感悟!

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com


在自然语言处理、语音识别和时间序列分析等众多领域中,序列建模是一项至关重要的任务。然而,现有的模型在捕捉长程依赖关系和高效建模序列方面仍面临诸多挑战。

因此,北京大学林宙辰、徐鑫提出了一种全新混合序列建模架构 ——MixCon,它为解决这些难题带来了创新性的方案。经实验验证,其性能远超 Mixtral、Mamba 和 Jamba。论文已在 European Conference on Artificial Intelligence (ECAI) 2024 上发表。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
  • 论文标题:MixCon: A Hybrid Architecture for Efficient and Adaptive Sequence Modeling
  • 论文地址:https://zhouchenlin.github.io/Publications/2024-ECAI-MixCon.pdf

一、现有序列建模模型的困境

线性注意力 Transformer

线性注意力 Transformer 旨在通过近似注意力机制来提高原始 Transformer 模型的效率,将计算复杂度从北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba降低到北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba,但在处理长序列时可能会面临性能下降和计算开销增加的问题。

例如,早期利用局部敏感哈希方案虽降低复杂度,但引入大常数因子;近期通过改变计算顺序等方法近似 Softmax 函数,但仍存在性能不如 Softmax 注意力且可能增加额外开销的情况。

线性 RNN 模型

线性 RNN 模型如 Mamba 等通过将序列表示为状态空间并利用扫描操作,以线性时间复杂度提供了序列建模的新解决方案。

然而,它们可能缺乏复杂序列建模任务所需的适应性和动态特性,并且像传统序列模型一样,缺少反馈机制和自适应控制。

MoE 模型

MoE 模型通过结合专家模块,能有效处理长序列并保持计算效率,根据输入数据自适应选择专家模块。

但 MoE 模型的专家模块稀疏激活可能导致训练稳定性问题,部分参数不常使用降低参数效率,在处理长序列时可能在计算效率和训练稳定性方面面临挑战,且对动态变化适应性不足。

二、MixCon 的核心架构与技术

Conba 模型架构

1. 状态空间方程

Conba 将序列建模任务表示为状态空间系统,状态空间定义为北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba,其中北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba分别为时间步北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba的状态、输入和输出,北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba是非线性函数,可由神经网络近似。

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba,其中北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba是可学习参数矩阵。北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba是可学习参数矩阵。

为处理长序列,Conba 采用选择性状态空间机制北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba,以及引入延迟状态北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba和动态状态缩放机制北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

最后状态空间系统表示为北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba来捕捉长程依赖和适应序列动态变化。

2. 自适应控制机制

设计目标是最小化实际输出北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba和期望输出北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba之间的跟踪误差北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

控制增益矩阵北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba通过北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba更新,其中北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba是跟踪误差向量北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba的 2 范数,北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba是学习率。

3. 实施细节

神经网络近似:

利用 MLP 近似状态转移函数北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba的非线性部分和观察函数北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba,通过端到端训练确定最佳参数。

选择性状态空间函数北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba用 SwiGLU(基于 Swish 和 GLU 的混合激活函数)近似,其公式为北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

进一步扩展和增强稳健性:引入过程噪声北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba和观察噪声北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba, 北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba,增强模型对扰动的适应性。

4. 模型架构图如下所示:
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
MixCon 模型架构

MixCon 是结合注意力机制的 Transformer 层、Conba 层和 MoE 组件的创新混合解码器架构。

在内存使用方面,通过平衡注意力和 Conba 层,相比 Mamba 可将 KV 缓存减少 32 倍。例如,在 256K 令牌上下文环境中,MixCon 仍能保持较小的 KV 缓存优势(如表 1 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
在吞吐量方面,处理长序列时,Conba 层计算效率更高,增加其比例可提高整体吞吐量。

基本配置单位是 MixCon 块,由 Conba 或注意力层组合而成,每个层包含注意力模块或 Conba 模块,后接 MLP 或 MoE 层。MixCon 中的 MLP 层被 MoE 层替换,以增加模型容量同时保持较低计算负载。

对于 Conba 层实施,采用 RMSNorm 等技术,模型词汇量为 256K,使用 BPE 进行训练,每个数字为单独令牌。

模型架构图如下所示:
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
三、MixCon 的实验与评估

实施细节

选择特定配置适应单块 80GB A800 NVIDIA GPU 的计算能力,实现质量和吞吐量的优化。

序列由 4 个 MixCon 块组成,每个 MixCon 块含 8 层 L = 8,注意力层和 Conba 层比例为 2:6 (a:c = 2:6),每隔一层 (e = 2) 用 MoE 替换 MLP 模块,模型有 16 个专家 (n = 16),每个令牌使用 2 个顶级专家 (K = 2)。

上下文长度分析

MixCon 在单块 80GB A800 GPU 上的最大上下文长度是 Jamba 的两倍、Mixtral 的四倍、Llama - 2 - 70B 的十四倍(如图 3 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
吞吐量分析

1. 配置一:考虑不同批大小,在单块 A800 80GB GPU(int8 量化)、8K 上下文长度下生成 512 个输出令牌,MixCon 吞吐量是 Mixtral 的三倍、Jamba 的两倍(如图 4 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
2. 配置二:单批次(批大小 = 1)、四块 A800 GPUs(无量化)、不同上下文长度下生成 512 个输出令牌,处理 128K 令牌时,MixCon 吞吐量是 Jamba 的 1.5 倍、Mixtral 的 4.5 倍(如图 5 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
数据集评估

本文在一系列标准学术基准测试中评估 Conba 性能,包括常识推理任务(如 HellaSwag、WinoGrande、ARC - E、ARC - Challenge)、阅读理解任务(如 BoolQ、QuAC)、聚合基准测试(如 MMLU、BBH),采用不同的学习策略。

MixCon 性能与类似或更大规模的先进公开模型相当或更优,尽管总参数比 Llama - 2 少,但作为稀疏模型,其活跃参数仅 5B,处理长序列时 KV 缓存仅需 2GB,而 Mixtral 需 32GB(如表 2 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
消融实验

展示注意力和 Conba 层结合的优势及最佳比例和交织技术。纯 Conba 模型在上下文学习有困难,Attention - Conba 混合模型有类似纯 Transformer 模型的上下文学习能力。

以 HellaSwag(10 - shot)、WinoGrande(5 - shot)、Natural Questions(NQ,5 - shot)为指标,MixCon 表现稳健(如表 3 所示),MixCon(无 MoE)训练过程损失更低(如图 6 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
长上下文评估

利用问答基准测试评估 MixCon 处理长上下文能力,使用 L - Eval 中最长上下文数据集的五个数据集,以少样本格式(每个实验用三个例子)进行实验。

在 NarrativeQA、LongFQA、Natural Questions(NQ)、CUAD 等数据集上评估,MixCon 在多数数据集上优于 Mixtral 和 Jamba,平均性能优越,且在长上下文任务中具有更好的吞吐量(如表 4 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
结合注意力和 Conba 的优势及混合专家的影响

1. 注意力和 Conba 比例研究

用 13 亿参数模型在 2500 亿令牌上训练,MixCon 性能优于纯注意力或纯 Mamba,注意力和 Conba 层比例为 2:6 或 1:7 时性能差异小(如表 5 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
2. 混合专家的影响

当在 MixCon 架构的大规模情境(5B 参数,在 50B 令牌上训练)中应用 MoE 技术时,性能有显著提升(如表 6 所示)。
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba
四、MixCon 的优势与展望

MixCon 作为创新的混合序列建模架构,通过整合多种技术,在处理复杂动态序列时具有高效的计算效率,在各项任务中展现出显著优势,能高效处理长序列、内存使用低且吞吐量高,具有高可扩展性和实用性。然而,它仍有改进空间,如进一步优化状态空间表示、长序列的自适应控制、特定领域微调以及训练算法等。

总体而言,MixCon 为序列建模提供了新的解决方案,在复杂序列处理方面表现出色,为 NLP 及其他领域的应用开辟了新道路。未来,我们期待它在更多领域发挥更大的作用,为技术发展带来更多的突破和创新。

今天关于《北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

版本声明
本文转载于:机器之心 如有侵犯,请联系study_golang@163.com删除
如何使用 PHP 连接 SQL Server 数据库?如何使用 PHP 连接 SQL Server 数据库?
上一篇
如何使用 PHP 连接 SQL Server 数据库?
JavaScript 主题
下一篇
JavaScript 主题
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 美图AI抠图:行业领先的智能图像处理技术,3秒出图,精准无误
    美图AI抠图
    美图AI抠图,依托CVPR 2024竞赛亚军技术,提供顶尖的图像处理解决方案。适用于证件照、商品、毛发等多场景,支持批量处理,3秒出图,零PS基础也能轻松操作,满足个人与商业需求。
    13次使用
  • SEO标题PetGPT:智能桌面宠物程序,结合AI对话的个性化陪伴工具
    PetGPT
    SEO摘要PetGPT 是一款基于 Python 和 PyQt 开发的智能桌面宠物程序,集成了 OpenAI 的 GPT 模型,提供上下文感知对话和主动聊天功能。用户可高度自定义宠物的外观和行为,支持插件热更新和二次开发。适用于需要陪伴和效率辅助的办公族、学生及 AI 技术爱好者。
    14次使用
  • 可图AI图片生成:快手可灵AI2.0引领图像创作新时代
    可图AI图片生成
    探索快手旗下可灵AI2.0发布的可图AI2.0图像生成大模型,体验从文本生成图像、图像编辑到风格转绘的全链路创作。了解其技术突破、功能创新及在广告、影视、非遗等领域的应用,领先于Midjourney、DALL-E等竞品。
    42次使用
  • MeowTalk喵说:AI猫咪语言翻译,增进人猫情感交流
    MeowTalk喵说
    MeowTalk喵说是一款由Akvelon公司开发的AI应用,通过分析猫咪的叫声,帮助主人理解猫咪的需求和情感。支持iOS和Android平台,提供个性化翻译、情感互动、趣味对话等功能,增进人猫之间的情感联系。
    39次使用
  • SEO标题Traini:全球首创宠物AI技术,提升宠物健康与行为解读
    Traini
    SEO摘要Traini是一家专注于宠物健康教育的创新科技公司,利用先进的人工智能技术,提供宠物行为解读、个性化训练计划、在线课程、医疗辅助和个性化服务推荐等多功能服务。通过PEBI系统,Traini能够精准识别宠物狗的12种情绪状态,推动宠物与人类的智能互动,提升宠物生活质量。
    36次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码