当前位置:首页 > 文章列表 > 科技周边 > 人工智能 > Meta千亿参数大模型OPT-IML「升级版」来了,完整模型和代码公布!

Meta千亿参数大模型OPT-IML「升级版」来了,完整模型和代码公布!

来源:51CTO.COM 2023-04-26 09:00:33 0浏览 收藏

从现在开始,努力学习吧!本文《Meta千亿参数大模型OPT-IML「升级版」来了,完整模型和代码公布!》主要讲解了等等相关知识点,我会在golang学习网中持续更新相关的系列文章,欢迎大家关注并积极留言建议。下面就先一起来看一下本篇正文内容吧,希望能帮到你!

今年五月,MetaAI官宣发布了基于1750亿参数的超大模型OPT-175B,还对所有社区免费开放。

12月22日,该模型的更新版本OPT-IML(Open Pre-trained Transformer)正式上线,Meta称其「对2000个语言任务进行了微调,包含1750 亿个参数」,还将为非商业研究用途免费开放。

图片

这次更新的OPT-IML的性能表现如何,先上两张图来看看。

图片

这次的OPT-IML创建了两种模型尺寸,分别是30B和175B。

与旧版OPT模型相比,OPT-IML在14个标准NLP评估任务中的平均表现均优于OPT。

在零次学习任务上两种模型大小分别好7%~ 和32-shot 任务分别好4%~ 和 0.4%~。

在这项研究中,研究人员描述了增加模型和基准大小如何影响指令调整决策对下游任务性能的影响。

为此他们开发了 OPT-IML Bench,这是一个相当大的指令元学习 (IML) 基准,包含2000个NLP任务,这些任务根据现有的八个基准分为任务类别。

图片

为训练OPT-IML 30B和175B,研究人员首先从该框架的角度对应用于 OPT-30B 的指令调优决策提出了见解。

在具有不同目标和输入格式的四个评估基准(PromptSource、FLAN、Super-NaturalInstructions 和 UnifiedSKG)上,OPT-IML 在两个尺度上展示了所有三种泛化技能。

它不仅在所有基准测试中显著优于OPT,而且以极具竞争力的方式优于针对该特定基准优化的现有模型。

此外OPT-IML已经开源,Github链接小编也放在下面啦~

图片

Github链接:https://github.com/facebookresearch/metaseq/tree/main/projects/OPT-IML

接下来通过论文来一起了解一下OPT-IML。

图片

论文链接:https://github.com/facebookresearch/metaseq/blob/main/projects/OPT-IML/optimal_paper_v1.pdf

研究方法

大型语言模型的指令微调已成为增强其零样本和少样本泛化能力的有效方法。在这项研究中,Meta研究人员对指令微调进行了三项重要的补充。

首先,他们编译了一个大规模的指令微调基准,其中包含来自八个数据集集合的2,000个NLP任务,按任务类型分类。

研究人员在此基准上有选择地构建评估拆分,以测试三种不同类型的模型泛化能力:

包括来自完全保留类别的任务(tasks from fully held-out categories)、来自已见类型的保留任务(held-out tasks from seen types)以及来自已见任务的保留实例(held-out instances from seen tasks)。

指令微调

对模型进行微调,以使它们与遵守说明保持一致,是目前机器学习的研究方向之一。

指令微调有两种方法。一种侧重于使用人工注释的指令和反馈对各种任务的模型进行微调;另一种,侧重于通过注释或自动向可公开访问的基准和数据集添加指令。

在本研究中,Meta AI成员专注于第二种技术,并编译了许多可公开访问的数据集,其中包含改进OPT的方法。

研究过程中,Meta成员使用来自四个基准的1836个任务,提出了类似的缩放方法。最后,在调整整个测试,以突破具有挑战性的外部基准(例如 MMLU 和 Big-Bench Hard (BBH))性能极限的同时,研究人员描述了可能影响下游性能的各种指令调整策略的权值。

多任务学习

多任务学习是基于指令的微调 (MTL) 的一种表述。

MTL 是一种流行的范例,当与共享可比较参数或表示的类似函数结合使用时,它可以提高任务的泛化性能。

近年来,MTL已应用于众多NLP场景,主要侧重于通过利用来自相关活动的信号来提高训练任务或新领域的性能。

相比之下,基于指令的微调有助于我们提高对前所未见问题的泛化性能。它是通过指令将所有任务组合成一个概念并通过在所有任务上分配模型的权重来一起训练它们来实现的。

什么是OPT?

大型语言模型,即具有超过 1000 亿个参数的自然语言处理系统,在过去几年中改变了NLP和AI研究。

这些模型接受了大量不同文本的训练,展现出令人惊讶的新能力,可以生成创意文本、解决基本数学问题、回答阅读理解问题等等。

虽然在某些情况下,公众可以通过付费 API 与这些模型进行交互,但完整的研究访问权限仍然仅限于少数资源丰富的实验室。

这种受限访问限制了研究人员理解这些大型语言模型如何工作以及为何工作的能力,阻碍了提高其鲁棒性和减轻偏见等已知问题的进展。

出于对开放科学的承诺,Meta AI于今年5月发布了Open Pretrained Transformer (OPT-175B),这是一个具有 1750 亿参数的模型,在公共数据集上训练而成,之所以共享这个模型,Meta AI 希望更多的社区参与理解关于大模型的基本技术。

简单来说,Meta将用于人工智能研究的大型语言模型访问权限开放给大众,从而实现大模型研究的人工智能民主化。

与老版对比

根据Meta现在发布的IML版本经过微调,在自然语言任务上的表现比旧版OPT更好。

典型的语言任务包括回答问题、总结文本和翻译。

为了进行微调,研究人员使用了大约2000个自然语言任务。这些任务分为八个NLP基准(OPT-IML Bench),研究人员也提供了这些基准。

平均而言,以30B和175B模型为例,OPT-IML比OPT的零次学习准确度提高了约 6-7%。在32次学习中,300亿参数的模型准确度有显著改进,1750亿参数的模型有轻微改进。

图片

经过对比,Meta团队发现OPT-IML的性能在所有基准测试上都优于OPT,并且在零样本和少样本学习准确度方面,比其他基于指令微调的模型更具有竞争力。

理论要掌握,实操不能落!以上关于《Meta千亿参数大模型OPT-IML「升级版」来了,完整模型和代码公布!》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

版本声明
本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
全球首个 AI 律师出庭计划被搁置:“同行”强烈反对,开发者还有可能坐牢全球首个 AI 律师出庭计划被搁置:“同行”强烈反对,开发者还有可能坐牢
上一篇
全球首个 AI 律师出庭计划被搁置:“同行”强烈反对,开发者还有可能坐牢
年终盘点:2022年最炙手可热的十家数据科学和机器学习初创公司
下一篇
年终盘点:2022年最炙手可热的十家数据科学和机器学习初创公司
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 互联网信息服务算法备案系统:如何完成算法备案流程
    互联网信息服务算法备案系统
    了解互联网信息服务算法备案系统,掌握如何进行算法备案的详细步骤和要求,确保您的互联网服务合规运营。
    57次使用
  • SEO标题魔匠AI:高质量学术写作平台,毕业论文生成与优化专家
    魔匠AI
    SEO摘要魔匠AI专注于高质量AI学术写作,已稳定运行6年。提供无限改稿、选题优化、大纲生成、多语言支持、真实参考文献、数据图表生成、查重降重等全流程服务,确保论文质量与隐私安全。适用于专科、本科、硕士学生及研究者,满足多语言学术需求。
    103次使用
  • PPTFake答辩PPT生成器:一键生成高效专业的答辩PPT
    PPTFake答辩PPT生成器
    PPTFake答辩PPT生成器,专为答辩准备设计,极致高效生成PPT与自述稿。智能解析内容,提供多样模板,数据可视化,贴心配套服务,灵活自主编辑,降低制作门槛,适用于各类答辩场景。
    136次使用
  • SEO标题Lovart AI:全球首个设计领域AI智能体,实现全链路设计自动化
    Lovart
    SEO摘要探索Lovart AI,这款专注于设计领域的AI智能体,通过多模态模型集成和智能任务拆解,实现全链路设计自动化。无论是品牌全案设计、广告与视频制作,还是文创内容创作,Lovart AI都能满足您的需求,提升设计效率,降低成本。
    261次使用
  • 美图AI抠图:行业领先的智能图像处理技术,3秒出图,精准无误
    美图AI抠图
    美图AI抠图,依托CVPR 2024竞赛亚军技术,提供顶尖的图像处理解决方案。适用于证件照、商品、毛发等多场景,支持批量处理,3秒出图,零PS基础也能轻松操作,满足个人与商业需求。
    124次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码