任务通用!清华提出主干网络Flowformer,实现线性复杂度|ICML2022
欢迎各位小伙伴来到golang学习网,相聚于此都是缘哈哈哈!今天我给大家带来《任务通用!清华提出主干网络Flowformer,实现线性复杂度|ICML2022》,这篇文章主要讲到等等知识,如果你对科技周边相关的知识非常感兴趣或者正在自学,都可以关注我,我会持续更新相关文章!当然,有什么建议也欢迎在评论留言提出!一起学习!
任务通用是基础模型研究的核心目标之一,同时也是深度学习研究通向高级智能的必经之路。近年来,得益于注意力机制的通用关键建模能力,Transformer在众多领域中表现优异,逐渐呈现出通用架构的趋势。但是随着序列长度的增长,标准注意力机制的计算呈现二次复杂度,严重阻碍了其在长序列建模与大模型中的应用。
为此,来自清华大学软件学院的团队深入探索了这一关键问题,提出了任务通用的线性复杂度主干网络Flowformer,在保持标准Transformer的通用性的同时,将其复杂度降至线性,论文被ICML 2022接受。
作者列表:吴海旭,吴佳龙,徐介晖,王建民,龙明盛
链接:https://arxiv.org/pdf/2202.06258.pdf
代码:https://github.com/thuml/Flowformer
相比于标准Transformer,本文提出的Flowformer模型,具有以下特点:
- 线性复杂度,可以处理数千长度的输入序列;
- 没有引入新的归纳偏好,保持了原有注意力机制的通用建模能力;
- 任务通用,在长序列、视觉、自然语言、时间序列、强化学习五大任务上取得优秀效果。
1. 问题分析
标准的注意力机制输入包含queries(),keys()和values()三部分,,其计算方式如下:其中为注意力权重矩阵,最终计算结果为将进行加权融合所得,上述过程计算复杂度为。注意到,对于多项矩阵的连乘问题,在经典算法中已有较多研究。特别地,对于注意力机制,我们可以利用矩阵乘法的结合律来实现优化,如,即可将原本的二次复杂度降至线性。但是注意力机制中的函数使得无法直接应用结合律。因此,如何移除注意力机制中的函数是实现线性复杂度的关键。但是,近期的众多工作证明,函数在避免平凡注意力学习上起到了关键性作用。综上,我们期待一种模型设计方案,实现以下目标:(1)移除函数;(2)避免平凡注意力;(3)保持模型的通用性。
2. 动机
针对目标(1),在之前的工作中,往往使用核方法来替代函数,即通过近似注意力计算(为非线性函数),但直接去掉会造成平凡注意力。为此,针对目标(2),之前工作不得不引入一些归纳偏好,这限制了模型的通用性,因此不满足目标(3),比如cosFormer中的局部性假设等。
Softmax中的竞争机制
为满足上述目标,我们从的基本性质出发进行分析。我们注意到,最初被提出是用于:将「赢者通吃」的取极大值操作扩展为可微分形式。因此,得益于其内在的「竞争」机制,它可以使各个token之间的注意力权重差异化,从而避免了平凡的注意力的问题。基于以上考虑,我们试图将竞争机制引入注意力机制设计,从而避免核方法分解带来平凡注意力问题。
网络流中的竞争机制
我们关注到在图论中的经典网络流(Flow network)模型中,「守恒」(Conservation)是一个重要现象,即每个节点的流入量等于流出量。受到「固定资源情况下,必定引起竞争」的启发,在本文中,我们试图从网络流视角重新分析经典注意力机制中的信息流动,并通过守恒性质将竞争引入注意力机制设计,以避免平凡注意力问题。
3. Flowformer
3.1 网络流视角下的注意力机制
在注意力机制内部:信息流动可以表示为:从源(source,对应)基于学习到的流容量(flow capacity,对应注意力权重)汇聚至汇(sink,对应)。
在注意力机制外部,源(v)的信息来自于上一层网络,汇(R)的信息也将提供给下面的前馈层。
3.2 Flow-Attention
基于上述观察,我们可以通过分别从流入和流出两个角度,控制注意力机制与外部网络的交互,来实现「固定资源」,从而分别引起源和汇内部的竞争,以避免平凡注意力。不失一般性,我们将注意力机制与外部网络的交互信息量设置为默认值1.
(1)汇(R)的流入守恒:
不难得到,未经过守恒之前,对于第个汇,其流入的信息量为:。为了固定每个汇流入的信息量为单位1,我们将
作为归一化引入信息流(注意力权重)的计算。经过归一化之后,第个汇的流入信息量为:
此时,由于汇的流入守恒,各个源(V)之间存在天然的竞争关系,我们计算此时每个源(V)给出的信息量,即可得到:竞争情况下,每个源所提供的信息量,这也代表着每个源的重要性。
(2)源(V)的流出守恒:与前述过程类似,未经过守恒之前,对于第个源,其流出的信息量为:。为了固定每个源流出的信息量为单位1,我们将作为归一化引入信息流(注意力权重)的计算。经过归一化之后,第j个源的流出信息量为:
。此时,由于源的流出守恒,各个汇()之间存在天然的竞争关系,我们计算此时每个汇()接受的信息量,即可得到:竞争情况下,每个结果所需要最终所接受的信息量。
(3)整体设计
基于上述结果,我们设计如下Flow-Attention机制,具体包含竞争(Competition)、聚合(Aggregation)、分配(Allocation)三部分:其中Competition将竞争机制引入中,突出重要的信息;Aggregation基于矩阵结合律实现线性复杂度;Allocation通过将竞争机制引入,控制传递到下一层的信息量。上述过程中的所有操作均为线性复杂度。同时,Flow-Attention的设计仅仅依赖于网络流中的守恒原理,对信息流的重新整合,因此并没有引入新的归纳偏好,保证了模型的通用性。将标准Transformer中的二次复杂度Attention替换为Flow-Attention,即得到了Flowformer。
4. 实验
本文在标准数据集上进行了广泛的实验:
- 覆盖了长序列、视觉、自然语言、时间序列、强化学习五大任务;
- 考察了标准(Normal)和自回归任务(Causal)两种注意力机制类型。
- 涵盖了多种序列长度的输入情况(20-4000)。
- 对比了各领域经典模型、主流深度模型、Transformer及其变体等多种基线方法。
如下表所示,Flowformer在五大任务上均表现优秀,验证了模型的通用性。详细实验结果请见论文。
5. 分析
为了进一步说明Flowformer的工作原理,我们对ImageNet分类任务中的注意力(对应Flow-Attention中的)进行了可视化实验,从中可以发现:
- 如果仅仅使用核方法进行分解,如Linear Transformer,会造成模型注意力分散,无法有效捕捉到关键区域;
- 经典Transformer和Flowformer均可以准确捕捉到图像的关键位置,但是后者在计算复杂度上具有优势;
- cosFormer在注意力机制中引入一维局部性假设,在语言任务上效果突出。但是在图像(将2D数据展开成1D序列)中,如果不将局部性假设扩展至二维,则无法适配视觉任务。这也印证了Flowformer中「没有引入新的归纳偏好」设计方式的优势。
上述可视化表明,通过Flow-Attention将竞争引入注意力机制设计可以有效避免平凡注意力。更多可视化实验可见论文。
6. 总结
本文提出的Flowformer通过将网络流中的守恒原理引入设计,自然地将竞争机制引入到注意力计算中,有效避免了平凡注意力问题,在实现线性复杂度的同时,保持了标准Transformer的通用性。Flowformer在长序列、视觉、自然语言、时间序列、强化学习五大任务上取得优秀效果。此外,Flowformer中「无特殊归纳偏好」的设计理念也对通用基础架构的研究具有一定的启发性。在未来工作中,我们将进一步探索Flowformer在大规模预训练上的潜力。
本篇关于《任务通用!清华提出主干网络Flowformer,实现线性复杂度|ICML2022》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于科技周边的相关知识,请关注golang学习网公众号!

- 上一篇
- 人工智能正在以十种方式改变教育行业

- 下一篇
- 十个值得推荐的自动化和编排工具
-
- 拉长的铅笔
- 这篇文章内容出现的刚刚好,老哥加油!
- 2023-05-01 07:43:12
-
- 美好的麦片
- 这篇文章内容出现的刚刚好,好细啊,受益颇多,码住,关注作者了!希望作者能多写科技周边相关的文章。
- 2023-04-30 19:22:04
-
- 外向的外套
- 很好,一直没懂这个问题,但其实工作中常常有遇到...不过今天到这,看完之后很有帮助,总算是懂了,感谢大佬分享文章!
- 2023-04-30 18:18:48
-
- 高大的御姐
- 太细致了,码起来,感谢博主的这篇技术文章,我会继续支持!
- 2023-04-30 12:53:25
-
- 科技周边 · 人工智能 | 1小时前 | 项目计划 豆包AI
- 豆包AI项目计划技巧与执行方案指南
- 249浏览 收藏
-
- 科技周边 · 人工智能 | 1小时前 |
- 接入ChatGLM-6B模型API详细教程
- 119浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 |
- 即梦AI添加时间戳教程详解
- 481浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 |
- GeminiPro下载安装教程及使用指南
- 163浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 | java 编程
- 豆包AI生成JSONSchema的快捷方法
- 495浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 | 编程教程 豆包AI
- 豆包AI编程教程:自动写代码技巧分享
- 356浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 | 谷歌 裁员
- 谷歌启动自愿离职计划,涉及搜索与营销部门
- 232浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 | java php
- 豆包AI+DeepSeek,一键生成会议纪要
- 257浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 | Python 循环优化
- 豆包AI优化Python循环技巧大全
- 137浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 |
- 豆包AI生成代码教程:数据挖掘实战指南
- 386浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 |
- 豆包AI生成Python请求代码的步骤详解
- 441浏览 收藏
-
- 科技周边 · 人工智能 | 3小时前 | 光至科技
- 光至科技温控炉专利曝光解析
- 478浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 茅茅虫AIGC检测
- 茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
- 116次使用
-
- 赛林匹克平台(Challympics)
- 探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
- 133次使用
-
- 笔格AIPPT
- SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
- 135次使用
-
- 稿定PPT
- 告别PPT制作难题!稿定PPT提供海量模板、AI智能生成、在线协作,助您轻松制作专业演示文稿。职场办公、教育学习、企业服务全覆盖,降本增效,释放创意!
- 123次使用
-
- Suno苏诺中文版
- 探索Suno苏诺中文版,一款颠覆传统音乐创作的AI平台。无需专业技能,轻松创作个性化音乐。智能词曲生成、风格迁移、海量音效,释放您的音乐灵感!
- 133次使用
-
- GPT-4王者加冕!读图做题性能炸天,凭自己就能考上斯坦福
- 2023-04-25 501浏览
-
- 单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖
- 2023-04-24 501浏览
-
- ChatGPT 真的会接管世界吗?
- 2023-04-13 501浏览
-
- VR的终极形态是「假眼」?Neuralink前联合创始人掏出新产品:科学之眼!
- 2023-04-30 501浏览
-
- 实现实时制造可视性优势有哪些?
- 2023-04-15 501浏览