当前位置:首页 > 文章列表 > 科技周边 > 人工智能 > 新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

来源:51CTO.COM 2023-09-11 14:27:50 0浏览 收藏

小伙伴们有没有觉得学习科技周边很有意思?有意思就对了!今天就给大家带来《新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向》,以下内容将会涉及到,若是在学习中对其中部分知识点有疑问,或许看了本文就能帮到你!

AI研究者往往忽视人类的直觉能力,但其实我们自己也没有完全理解其精妙程度。最近,弗吉尼亚理工大学和微软的一个研究团队提出了一种思维算法(AoT),它将直觉能力与算法方法结合起来,既能保证LLM性能,又能极大地节省成本

大型语言模型最近的发展速度非常快,它在解决一般问题、生成代码和遵循指令方面展现出了显著的非凡能力

尽管早期的模型依赖于直接回答策略,但当前的研究则转向了线性推理路径,其做法是将问题分解成子任务来发现解决方案,或通过修改上下文来利用外部机制来改变 token 的生成。

与人类认知类似,早期的 LLM 策略似乎模仿的是即时的 System 1(快速反应),其特征是通过脉冲决策实现。相较之下,思维链(CoT)和 least-to-most prompting(L2M)等更新的一些方法则反映了 System 2(慢速思考)的内省式本质。值得注意的是,通过整合中间推理步骤,可让 LLM 的算术推理能力获得提升。

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

但是,如果任务需要更深度的规划和更广度的思维探索,那么这些的方法的局限性就显现出来了。尽管整合了自我一致性的 CoT(CoT-SC)可使用多个 LLM 输出来达成共识性结果,但由于缺少细致的评估,可能会导致模型走向错误方向。2023 年出现的思维树(ToT)是一种值得注意的解决方案。其中使用一个 LLM 来生成想法,再使用另一个 LLM 来评估这些想法的优点,之后续以「暂停 - 评估 - 继续」的循环。这种基于树搜索的迭代过程明显是有效的,尤其是对于具有较长延续性的任务。研究者认为,这种进展是使用外部工具来增强 LLM,类似于人类使用工具来规避自身工作记忆的限制。

另一方面,增强的LLM方法也存在一些缺点。一个明显的问题是查询数量和计算需求会大幅增加。每次对GPT-4等在线LLM API的查询都会产生大量的费用,并且会导致延迟增加,这对于实时应用来说尤为重要。这些查询累积的延迟可能会降低方案的整体效率。在基础设施方面,持续的交互会给系统带来压力,可能会限制带宽并降低模型的可用性。此外,还不能忽视对环境的影响,频繁的查询会增加已经高耗能的数据中心的能源消耗,进一步增加碳足迹

研究者的优化目标是在保持足够性能的同时,大幅减少当前多查询推理方法所使用的查询数量。这样的优化可以使模型能够处理需要熟练运用世界知识的任务,并引导人们更加负责任和熟练地使用AI资源

通过思考LLM从System 1到System 2的演变,我们可以看到一个关键因素浮出了水面:算法。算法是富有条理的,它能够为人们提供一种探索问题空间、制定策略和构建解决方案的方法。尽管许多主流文献将算法视为LLM的外部工具,但考虑到LLM固有的生成式复现能力,我们是否可以引导这种迭代式逻辑,将算法内化到LLM内部呢?

弗吉尼亚理工大学和微软的一个研究团队将人类推理的复杂精妙和算法方法的富有条理的精确性聚合到了一起,旨在通过融合这两方面来增强LLM内部的推理能力

根据已有的研究,人类在解决复杂问题时会本能地借鉴过去的经验,确保自己进行全面思考而不是狭隘地关注某一细节。而LLM的生成范围仅受其token限制限定,似乎注定要突破人类工作记忆的阻碍

受到这一观察的启发,研究人员开始探究是否可以利用LLM实现类似的分层思考方式,通过参考先前的中间步骤来排除不可行的选项 - 所有这些都在LLM的生成周期内完成。人类擅长直觉敏锐,而算法善于组织化和系统性的探索。当前的CoT等技术往往回避了这种协同性潜力,过于关注LLM的现场准确性。通过利用LLM的递归能力,研究人员构建了一种人类-算法混合方法。这种方法的实现方式是通过使用算法示例,这些示例能够体现探索的本质 - 从最初的候选项到经过验证的解决方案

基于这些观察,研究者提出了思维算法(Algorithm of Thoughts /AoT)。

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

需要重新写作的内容是:论文:https://arxiv.org/pdf/2308.10379.pdf

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

从更广义的范围看,这种新方法有望催生出一种上下文学习新范式。这种新方法没有使用传统的监督学习模式,即 [问题,解答] 或 [问题,用于获得解答的后续步骤],而是采用了一种新模式 [问题,搜索过程,解答]。很自然,当通过指令让 LLM 使用某算法时,我们通常预计 LLM 只会简单模仿该算法的迭代式思维。但是,有趣的是 LLM 有能力注入其自身的「直觉」,甚至能使其搜索效率超过该算法本身。

思维算法

研究者表示,他们的研究策略的核心是认识到当前上下文学习范式的主要不足之处。尽管CoT能够提升思维联系的一致性,但偶尔也会出现问题,导致错误的中间步骤

为了说明这一现象,研究者设计了一个实验。用算术任务(如 11 − 2 =)查询 text-davinci-003 时,研究者会在前面添加多个会得到同等输出结果的上下文等式(如 15 − 5 = 10, 8 + 2 = 10)。

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

经过调查发现,发现结果准确度骤降,这表明仅仅在上下文中提供正确的推理可能会无意中损害LLM的基础算术能力

为了减少这种偏差,让示例更加多样化也许是可行的解决方案,但这可能会稍微改变输出的分布。只是添加一些不成功的尝试(就像是随机搜索),可能会无意地鼓励模型重新尝试,而不是真正解决问题。了解了算法行为的真正本质(其中失败的搜索和后续的恢复以及对这些尝试的学习都很重要),研究者整合上下文示例的方式是按照搜索算法的模式,尤其是深度优先搜索(DFS)和广度优先搜索(BFS)。图 1 给出了一个示例。

这篇论文的主要关注点是一类类似于树搜索问题的任务

对于这类任务,需要将主要问题进行分解,并为每个部分构建可行的解决方案。然后,我们需要决定是否采纳或放弃某些路径,并有可能选择重新评估那些具有更大潜力的部分

研究者的方法是利用LLM的迭代能力,在一次统一的生成式扫描中解决每个子集的查询问题。通过限制只进行一两次LLM交互,该方法可以自然地整合来自之前上下文候选项的见解,并解决需要深度探索解答域的复杂问题。研究者还提出了关于思维大小和为LLM提供何种类型上下文示例以提高token效率的见解。下面将介绍树搜索算法的关键组件及其在新框架中的表现形式

1. 分解成子问题。给定一个问题,就算不看实际解决问题方面,构建一个描述可行推理路径的搜索树已经是一项艰巨的任务。任何分解都不仅要考虑子任务之间的相互关系,还要考虑解决各个问题的难易程度。

以简单的多位数加法为例:尽管对计算机而言,将数值转换成二进制数后效率很高,但人类通常认为十进制数更加直观。此外,即便子问题是一样的,执行方法也可能不同。直觉能找到解答步骤之间的捷径,而如果没有直觉,可能就必需更为详细的步骤。

为了创建出正确的 prompt(即上下文算法示例),这些细微之处非常重要,它们决定了 LLM 为了取得可靠表现所需的最少 token 数量。这不仅能满足 LLM 对上下文的限制,而也对 LLM 的能力很重要,因为我们希望 LLM 能使用相似的 token 量解决与其上下文有共鸣的问题。

2. 为子问题提议解答。现目前的一种主流方法涉及到直接采样 LLM token 输出概率。尽管这种方法对一次性答案有效(有一定的限制),但也无力应对一些场景,比如当需要将样本序列整合进后续 prompt 中或在后续 prompt 中评估时。为了尽可能减少模型查询,研究者采用了一种不间断的解答创建过程。即不带任何生成停顿,为主要子问题直接和连续地生成解答。

重写后的内容: 这种方法有很多优点。首先,所有生成的答案都在同一个共享的上下文中,不需要为每个答案生成单独的模型查询进行评估。其次,尽管一开始看起来有些反直觉,但孤立的标记或标记组概率可能无法总是得到有意义的选择。图4展示了一个简单的示意图

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

3. 衡量子问题的前景。如上所述,现有技术依靠额外的提示来识别树节点的潜力,帮助做出有关探索方向的决策。而研究者的观察表明,如果能将最有前途的路径封装在上下文示例中,LLM 会固有地倾向于优先考虑那些有前途的候选项。这能降低对复杂 prompt 工程设计的需求并允许整合复杂精细的启发式方法,不管这些方法是直觉式的或知识驱动的。同样,新方法中不含脱节的 prompt,这使得能在同一个生成结果中即时评估候选项的可行性。

4. 回溯到更好的节点。决定接下来要探索的节点(包括回溯到之前的节点)本质上取决于所选的树搜索算法。尽管之前已有研究为搜索过程采用了编码机制等外部方法,但这会限制其更广泛的吸引力并需要额外的定制。这篇论文提出的新设计主要采用 DFS 方法并辅以剪枝。目标是维持有同一父节点的子节点之间的近邻度,以此鼓励 LLM 优先考虑本地特征而不是远程特征。此外,研究者还提出了基于 BFS 的 AoT 方法的性能指标。研究者表示,借助于模型从上下文示例中收集见解的固有能力,可以消除额外的定制机制的必要性。

实验

研究人员进行了一项实验,对于24点和5x5迷你填词游戏进行了研究。结果显示,AoT方法在性能表现上优于单个提示方法(如标准方法、CoT、CoT-SC),同时也可以媲美利用外部机制的方法(如ToT)

从表1可以清楚地看出,使用LLM进行树搜索的方法明显优于结合了CoT/CoT-SC的标准提示设计方法

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

在迷你填词任务中,表 3 显示了AoT的有效性,其填词成功率超过了之前使用各种提示技术的方法

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

但是,它比 ToT 差。一个重要的观察是 ToT 使用的查询量巨大,超过了 AoT 百倍以上。另一个让 AoT 逊于 ToT 的因素是算法示例中固有的回溯能力没有充分得到激活。如果能完全解锁该能力,会导致生成阶段显著延长。相比之下,ToT 的优势在于可以利用外部记忆来进行回溯。

讨论

AoT 能否在模仿 DFS 的基础上取得突破?

根据图5所示,AoT使用的节点总体上比DFS版本少。DFS在选择要探索的子树时采用了统一的策略,而AoT的LLM则集成了其固有的启发式方法。这种对基本算法的放大体现了LLM递归推理能力的优势

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

算法的选择会如何影响 AoT 的效能?

在实验中发现,表5显示了这三种AoT变体都比单个查询的CoT更优越

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

这一结果符合预期,因为无论算法是什么,它都会进行搜索并重新审视潜在的错误 —— 要么是通过随机搜索变体中的随机尝试,要么是通过深度优先搜索(DFS)或广度优先搜索(BFS)配置中的回溯。值得注意的是,DFS版本的AoT和BFS版本的AoT这两个结构化搜索的效率都优于随机版本的AoT,这突显了算法洞察在解答发现中的优势。但是,BFS版本的AoT落后于DFS版本的AoT。通过更进一步分析BFS版本的AoT的错误,研究者发现,相比于DFS版本的AoT,BFS版本的AoT更难识别最佳操作

在调节 AoT 的行为时,我们需要关注算法示例中的搜索步数

在图6中展示了总搜索步数的影响。其中,AoT(长)和AoT(短)分别表示相对于原始AoT生成结果更长和更短的版本

新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向

研究结果显示,搜索步骤会对LLM的搜索速度产生隐含的偏差。需要注意的是,即使在采取错误的步骤时,强调探索有潜力的方向仍然非常重要

好了,本文到此结束,带大家了解了《新标题:揭秘大模型运行缓慢的原因:人类思维算法的新方向》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

版本声明
本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
赋能互联网讲师视频讲演 万兴科技首发AI讲演神器万兴智演赋能互联网讲师视频讲演 万兴科技首发AI讲演神器万兴智演
上一篇
赋能互联网讲师视频讲演 万兴科技首发AI讲演神器万兴智演
北航打破模态壁垒,跨可见光-红外模态的通用物理对抗打击方法来了
下一篇
北航打破模态壁垒,跨可见光-红外模态的通用物理对抗打击方法来了
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 可图AI图片生成:快手可灵AI2.0引领图像创作新时代
    可图AI图片生成
    探索快手旗下可灵AI2.0发布的可图AI2.0图像生成大模型,体验从文本生成图像、图像编辑到风格转绘的全链路创作。了解其技术突破、功能创新及在广告、影视、非遗等领域的应用,领先于Midjourney、DALL-E等竞品。
    16次使用
  • MeowTalk喵说:AI猫咪语言翻译,增进人猫情感交流
    MeowTalk喵说
    MeowTalk喵说是一款由Akvelon公司开发的AI应用,通过分析猫咪的叫声,帮助主人理解猫咪的需求和情感。支持iOS和Android平台,提供个性化翻译、情感互动、趣味对话等功能,增进人猫之间的情感联系。
    16次使用
  • SEO标题Traini:全球首创宠物AI技术,提升宠物健康与行为解读
    Traini
    SEO摘要Traini是一家专注于宠物健康教育的创新科技公司,利用先进的人工智能技术,提供宠物行为解读、个性化训练计划、在线课程、医疗辅助和个性化服务推荐等多功能服务。通过PEBI系统,Traini能够精准识别宠物狗的12种情绪状态,推动宠物与人类的智能互动,提升宠物生活质量。
    18次使用
  • 可图AI 2.0:快手旗下新一代图像生成大模型,专业创作者与普通用户的多模态创作引擎
    可图AI 2.0图片生成
    可图AI 2.0 是快手旗下的新一代图像生成大模型,支持文本生成图像、图像编辑、风格转绘等全链路创作需求。凭借DiT架构和MVL交互体系,提升了复杂语义理解和多模态交互能力,适用于广告、影视、非遗等领域,助力创作者高效创作。
    23次使用
  • 毕业宝AIGC检测:AI生成内容检测工具,助力学术诚信
    毕业宝AIGC检测
    毕业宝AIGC检测是“毕业宝”平台的AI生成内容检测工具,专为学术场景设计,帮助用户初步判断文本的原创性和AI参与度。通过与知网、维普数据库联动,提供全面检测结果,适用于学生、研究者、教育工作者及内容创作者。
    34次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码