当前位置:首页 > 文章列表 > 科技周边 > 人工智能 > 开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

来源:51CTO.COM 2024-04-25 14:57:24 0浏览 收藏

各位小伙伴们,大家好呀!看看今天我又给各位带来了什么文章?本文标题《开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了》,很明显是关于科技周边的文章哈哈哈,其中内容主要会涉及到等等,如果能帮到你,觉得很不错的话,欢迎各位多多点评和分享!

虽然大型语言模型(LLM)在各种常见的自然语言处理任务中展现出了优异的性能,但随之而来的幻觉也揭示了模型在真实性和透明度上仍然存在问题。 尽管LLM在某些任务上准确无误地完成了指定的任务,但其输出结果并非总是可靠的。它可能会生成看似合理但事实上是错误或误导性的文本。这些错误可能是因为模型在训练过程中没有接触到足够多的可

在模型生成错误回复内容时,可以尝试“深入理解其背后机制”,解决模型的幻觉问题。

深度神经网络的复杂性和模型的增长,使得通过探索机器学习(ML)模型对所学内容的hidden representation(隐藏表征)的方式,可以越来越有挑战性。然而,研究人员可以通过一定程度的控制模型的行为,并对模型的实际运行方式进行更深入的科学解释。这些方法可以通过使用表征学习技术和其他技术实现,以更深入的方式研究深度神经网络和其hidden representation。

从过去的研究结果来看,一个相对有前景的方向是「使用LLMs来解释其他模型的神经元模式」(neuron patterns)。

今年1月,Google Research和特拉维夫大学的研究人员共同提出了一个统一的框架Patchscopes来研究LLMs中的隐藉表征。主要思路就是利用LLMs来提供有关模型本身内部隐藏表征的自然语言解释。

开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

论文链接:https://arxiv.org/pdf/2401.06102.pdf

Patchscopes提供了现有的可解释性技术,能够让模型回答出之前无法解决的问题。比如模型可以说出关于"LLM的隐藏表征如何捕捉模型输入中含义的细微差别"的见解和想法,从而帮助开发人员更容易修复某些特定类型的推理错误。

在论文刚发布的时候,研究人员只是将Patchscopes的应用场景集中在自然语言处理领域和自回归Transformer模型家族中。但实际上该方法的潜力应用范围更广。该方法的应用范围已经被扩展到更多领域,使其在应用场景方面更加广泛。

最近,研究人员又发布了一篇博客,详细介绍了该方法在检测和纠正模型幻觉、探索多模态(图像和文本)表示以及研究模型如何在复杂的场景中构建预测方面的应用样例。 反对使用机器学习、增加透明性和可解释性等问题的声音在学术界和工业界中越来越响。在这个背景下,研究人员提出了一种新的方法,通过使用外部指导信息和模型预测的不一致性来增强模型的可

Patchscopes使用方法

以NLP中常见的「实体共同指代解析」(co-references to entities)任务为例,首先需要在Patchscopes中实现一个专门用于解决共指问题的工具。

比如说,为了研究模型对代词「it」所指代的人物上下文是如何理解的,需要创建出一套Patchscopes配置。


开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

Patchscopes框架图解,通过使用预定义的目标提示符(右)解码源提示符(左)中「It」表征中编码的内容。

1. 设置 Setup

给定一个目标模型后,需要输入一段包含相关上下文信息的标准提示(即源提示,source prompt),如“Patchscopes is robust. It helps interpret…"(Patchscopes是稳健的,有助于解释…)

2. 目标 Target

二级提示(secondary prompt 即 target prompt)的目的是提取特定的隐藏信息,在这个例子里,一个简单的单词重复提示就可以揭示出隐藏表征中的信息。

例子中的目标提示词是cat->cat; 135->135; hello->hello; ?,但需要注意的是,提示中的单词是随机选择的,所以可能看起来和输入文本不相关,但也需要遵循特定的编写模式:包含多个例子,其中每个样例包括一个单词、一个箭头以及对该单词的重复。

如果将文本输入到一个训练后的语言模型中来预测下一个单词,模型的预期输出为能够继续遵循该模式。

换句话说,如果模型把「?」中的内容与其他随机单词进行替换,让模型生成下一个单词,以此来考察模型应该重复哪些单词?

3. 块 Patch

在源提示符上执行推理(inference),其中「It」token中感兴趣层的隐藏表征(图中的绿色点)被注入到目标提示(图中的橙色点)上,可以应用transformation(示例中的f函数)将表征与其他层或模型对齐。

4. 揭示 Reveal

对于增强后的输入(augmented input),模型会在输出中包含原始模型是如何在特定上下文中在内部对单词「It」进行扩展的想法。

给出的例子中,模型生成了「Patchscopes」,解释了在「It」token之上的模型第四层的隐藏表征,结果表明,经过4层计算后,模型已经将来自先前单词的信息合并到「It」token上方的隐藏表征中,并得出结论,其不再指代通用对象,而是指代「Patchscopes」。

虽然token表征(绿色点)可能看起来像一个没有任何含义解的浮点数向量,但Patchscopes框架可以将其转换为人类可理解的文本,表明指代的是「Patchscopes」,与先前的工作一致,即关于一个主题的信息会在其最后一个token中累积。

Patchscopes实战

Patchscopes在理解和控制LLMs方面有广泛的应用。

1. 下一个token预测(next token prediction)

在计算过程中,根据给定的上下文,模型可以「多早地」得出最终预测?

从中间隐藏表示进行的token预测是一个常见的、可用于评估查看Transformer内部的可解释性方法。

即使是在更复杂的早期或中期处理层,Patchscope的效果也非常好:在不同的语言模型中,从第10层开始,其性能都优于之前的方法,如Tuned Lens和Logit Lens。

开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

使用来自LLM的中间隐藏表征的下一个token预测任务来评估各种可解释性方法,展现了使用一个简单的「Token Identity」目标提示符(即,由k个表示类似于标识的函数的演示组成的目标提示符,格式为「tok_1 → tok_1 ; tok_2 → tok_2 ; ... ; tok_k」)与Tuned Lens和Logit Lens方法相比。x轴是在LLM中检查的隐藏表征层;y轴显示precision@1,测量最高概率预测token匹配原始分布中最高概率token示例的比例。

2. 提取事实(pulling out facts)

在模型的计算中,可以多早获取属性信息(例如,某个国家的货币)。

在这个实验中,研究人员主要考虑从文本中提取属性的任务,文本来源为Hernandez等人(2024年)编写的常识和事实知识任务。

开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

论文链接:https://openreview.net/pdf?id=w7LU2s14kE

使用的目标提示主要针对简单的动词化关系,其次是一个占位符的主题。例如,要从「States」的表征中提取美国的官方货币,使用目标提示符「The official currency of x」,考虑到Patchscopes应用程序不使用任何训练示例,并且明显优于其他技术。

开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

跨源层的属性提取准确性(Attribute extraction accuracy across source layers,简写为REQ)。左:工具完成的任务(常识),54个源提示,12个类。右:国家货币(事实),83个来源提示,14个类别。

3. 解释实体:不只用yes或no

模型在处理输入时如何理解像「亚历山大大帝」(Alexander the Great)这样的多词输入?

Patchscopes超越了简单的「它已经解决了这个问题」(has it figured this out yet)的答案,揭示了模型如何从开始阶段,逐渐理解一个实体。

使用以下few-shot的目标提示来解码模型的逐步处理:「叙利亚:中东国家,列奥纳多迪卡普里奥:美国演员,三星:韩国跨国大型家电和消费电子公司,x」(Syria: Country in the Middle East, Leonardo DiCaprio: American actor, Samsung: South Korean multinational major appliance and consumer electronics corporation, x)。

当遍历两个不同模型(Vicuna-13 B和Pythia-12 B)的层时,更多来自上下文的单词被整合到当前表征并反映在生成中。

开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

通过定性实例说明实体解析:表达性的生成表明,当通过层时,更多来自上下文的tokens被集成到当前表征中。「解释」(Explanation)指的是生成与源提示词的关系。两个示例都使用了上述相同的目标提示符。

4. 团队合作:用模型解释模型

Patchscopes框架可以使用强大的语言模型来解码较小的过程:研究人员利用Vicuna-13 B来解释Vicuna-7 B的输入处理,将隐藏的实体表征从较小的模型修补到较大的模型中,然后测量模型生成的文本和来自维基百科的实际参考描述之间的词汇相似性(使用RougeL得分)。

Vicuna-7 B → 13 B(绿色线)几乎总是高于Vicuna-7 B → 7 B(蓝线),曲线下面积更大,结果表明,跨模型修补到一个更大的和更有表现力的模型,在改进的生成和参考文本之间的词汇相似性的结果,并表明跨模型修补的过程显着增强了模型的能力,生成文本的上下文对齐的输入表示从另一个模型。

开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

使用Vicuna模型,生成的描述与维基百科的描述的RougeL(词汇相似性)得分,从Vicuna-7 B到Vicuna-13 B的patched表征导致对popular和rare实体解析以更具表达力的语言化。

5. 修复错误推理

虽然最先进的LLMs可以独立地解决每个推理步骤,但仍然很难实现多步推理。

Patchscopes可以通过重新路由中间隐藏表征来帮助解决这个问题,从而显着提高准确性:在实验中,系统地生成多跳的事实和常识推理查询,并表明,与输入结构的先验知识,错误可以通过修补隐藏表征从查询的一部分到另一个固定。

开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了

思维链(CoT)Pathcscope使用相同的源提示和目标提示来执行顺序推理,但将一个位置的隐藏表征修补到另一个位置。

CoT Patchscope将准确率从19.57%提高到50%,本实验的目的是证明使用Patchscopes进行干预和纠正是可行的,但要注意CoT Pathscope是一种说明,而不是一种通用的纠正方法。

本篇关于《开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于科技周边的相关知识,请关注golang学习网公众号!

版本声明
本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
需要一种方法将 docker args 中的单个字符串转换为多个参数需要一种方法将 docker args 中的单个字符串转换为多个参数
上一篇
需要一种方法将 docker args 中的单个字符串转换为多个参数
华为P系列升级Pura,新款70系列即将引爆市场?!
下一篇
华为P系列升级Pura,新款70系列即将引爆市场?!
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 毕业宝AIGC检测:AI生成内容检测工具,助力学术诚信
    毕业宝AIGC检测
    毕业宝AIGC检测是“毕业宝”平台的AI生成内容检测工具,专为学术场景设计,帮助用户初步判断文本的原创性和AI参与度。通过与知网、维普数据库联动,提供全面检测结果,适用于学生、研究者、教育工作者及内容创作者。
    12次使用
  • AI Make Song:零门槛AI音乐创作平台,助你轻松制作个性化音乐
    AI Make Song
    AI Make Song是一款革命性的AI音乐生成平台,提供文本和歌词转音乐的双模式输入,支持多语言及商业友好版权体系。无论你是音乐爱好者、内容创作者还是广告从业者,都能在这里实现“用文字创造音乐”的梦想。平台已生成超百万首原创音乐,覆盖全球20个国家,用户满意度高达95%。
    26次使用
  • SongGenerator.io:零门槛AI音乐生成器,快速创作高质量音乐
    SongGenerator
    探索SongGenerator.io,零门槛、全免费的AI音乐生成器。无需注册,通过简单文本输入即可生成多风格音乐,适用于内容创作者、音乐爱好者和教育工作者。日均生成量超10万次,全球50国家用户信赖。
    22次使用
  •  BeArt AI换脸:免费在线工具,轻松实现照片、视频、GIF换脸
    BeArt AI换脸
    探索BeArt AI换脸工具,免费在线使用,无需下载软件,即可对照片、视频和GIF进行高质量换脸。体验快速、流畅、无水印的换脸效果,适用于娱乐创作、影视制作、广告营销等多种场景。
    26次使用
  • SEO标题协启动:AI驱动的智能对话与内容生成平台 - 提升创作效率
    协启动
    SEO摘要协启动(XieQiDong Chatbot)是由深圳协启动传媒有限公司运营的AI智能服务平台,提供多模型支持的对话服务、文档处理和图像生成工具,旨在提升用户内容创作与信息处理效率。平台支持订阅制付费,适合个人及企业用户,满足日常聊天、文案生成、学习辅助等需求。
    27次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码