在ICLR 2024这场演讲中,智谱AI首次公开神秘项目「GLM-zero」
大家好,今天本人给大家带来文章《在ICLR 2024这场演讲中,智谱AI首次公开神秘项目「GLM-zero」》,文中内容主要涉及到,如果你对科技周边方面的知识点感兴趣,那就请各位朋友继续看下去吧~希望能真正帮到你们,谢谢!
在机器学习社区中,ICLR (国际学习表征会议)被评为“年轻”的学术会议,它由深度学习巨头、图灵奖得主Yoshua Bengio和Yann LeCun在2013年牵头举办。但ICLR很快获得了研究者的广泛认可,并且在AI圈拥有了深度学习会议“无冕之王”的称号。
目前,ICLR是机器学习领域最大、水平最高的会议之一,与ICML和NeurIPS并称为机器学习领域的三大顶会。从影响力上看,ICLR长期处于Google Scholar全球所有学术中期刊、顶会的前十名。
今年,ICLR 已经来到了第十二届。5 月 7 日,ICLR 2024 在奥地利维也纳会展中心开幕。
可能是受到大模型技术浪潮的推动,无论是参会人数、论文提交量还是现场参会规模,ICLR 2024 的热度相比往年都有极大的提升。

从深度学习的兴起,到生成式 AI 带来的新一波浪潮,ICLR 算是证明了人工智能领域十多年来的发展史。在这个过程中,ICLR 也从第一届只有二十几篇接收论文的小型会议成长为投稿量超过七千的顶会。

历届 ICLR 论文数据图。图源:https://papercopilot.com/statistics/iclr-statistics/
大会首日的开幕式公布了ICLR 2024的一些数据和奖项:比如,在走过第一个十年后,ICLR 迎来了自己的首届时下验证奖,获奖研究《Auto-Encoding Variational Bayes》(VAE)对于今天深度学习和生成模型领域影响深远。

值得关注的是,本次大会上共有七场受邀演讲,Meta、谷歌等科技巨头悉数在列。
其中一场特邀演讲来自中国的 GLM 大模型团队,主题为《The ChatGLM's Road to AGI》。这也是国内鲜有的,大模型相关 Keynote 登上全球学术顶会的讲台。
大模型时代,AGI 会加速到来吗?
在演讲中,GLM 大模型团队回顾了近年来语言模型领域的技术演进与方向碰撞。
大模型技术显著提升了 AI 在各种任务上的表现,例如自然语言理解和文本生成、图像处理、多模态建模,催生了大众对 AGI 的真切期待。从技术上说,这些神奇能力与模型的「智能涌现」分不开,而「涌现」的底层逻辑是「Scaling Law」。
Open AI 的 Jason Wei 2022 年在谷歌工作期间,与 Jeff Dean 等人共同撰写了关于大模型涌现能力的论文,揭示了重要结论:当模型较小时,性能是随机的,一旦模型规模到达一定阈值,性能就会显著超越随机。一般来说,模型越大,能力越强。

对于这种由量变引起的质变现象,人们称之为「涌现(emergence)」。如果「涌现」是真实存在的,那么 AGI 的实现可以依靠模型体量的增加而逼近。
但斯坦福团队的一项研究却提出了相反的观点:大模型能力是否涌现与任务的评价指标强相关,并非模型行为在特定任务和规模下的基本变化,换一些更连续、平滑的指标后,涌现现象就不那么明显了,而是更接近线性。
「它有连续性,但没有能力涌现。」这项具有警示性的研究还获得了 NeurIPS 2023 最佳论文奖。

论文链接:https://arxiv.org/pdf/2304.15004.pdf
目前,学术界对上述命题仍然存在争论。不过,GLM 大模型团队今年 3 月的一篇论文从预训练损失的角度重新讨论了模型涌现能力 —— 只有当预训练损失低于某个阈值时,模型才具有该能力。这为此后的研究提供了新的视角:Loss 才是涌现的关键,而非模型参数。

论文地址:https://arxiv.org/pdf/2403.15796.pdf
在近来的大模型浪潮中,GLM 大模型团队备受关注。去年 6 月,在科技媒体 The Information 的盘点中,GLM 大模型团队所属的智谱 AI,被视为最有可能成为「中国 OpenAI」的 5 家企业之一。
从 GLM 大模型团队的下一阶段目标中可以看出,除了「涌现」命题,GLM 大模型团队对于通往 AGI 的路径还有很多思考。
GLM 大模型团队表示,文本仍然是最关键的基础,而下一步应该把文本、图像、视频、音频等多种模态混合在一起训练,变成一个真正原生的多模态模型,然后还可以开发面向现实任务的虚拟助理,甚至是以大模型为中心的通用计算系统。
在这一设想中,通用计算系统可基于已有的 All-Tools 能力,再加上内存记忆 memory 和自我反馈 self-reflection 能力,模仿人类的 PDCA 机制,即 Plan-Do-Check-Act 循环,最终实现自我提升。
与此同时,如何大模型拥有人类的「无意识」学习机制,也是 GLM 大模型团队在探索的方向。
「最有希望成为中国 OpenAI」的团队,如何瞄准 AGI?
自 2019 年成立以来,GLM 大模型团队便开始了大语言模型的探索,并选择走开闭源并存的发展路线。
在整体布局上,GLM 大模型团队已经完成了全面对标 OpenAI,从基座模型到对话、文生图、代码、检索增强和视觉模型,包括 GLM、ChatGLM、CogView、CodeGeeX、WebGLM 以及 GLM-4V。这些模型的预训练过程中少不了针对中文语料的大量优化,这也是国产大模型发挥本土化优势的关键。

GLM 大模型团队在 2020 年后开始显现成果。从研发 GLM 预训练架构、到训练完成百亿参数的 GLM-10B、再到 2022 年千亿参数超大规模预训练模型 GLM-130B 的诞生,他们开始围绕这一强大的基座模型持续深拓。
2023 年 3 月,与 GPT-4 同一时间,GLM 大模型团队推出了基于千亿基座模型的对话模型 ChatGLM,理解用户、遵循指令、回答问题的效果显著提升。同时选择开源中英双语对话模型 ChatGLM-6B,实现单张消费级显卡上的本地部署。随后的 6 月和 10 月,GLM 大模型团队又迎来第二代和第三代 ChatGLM,保持三到四个月一次的模型迭代频率。
随着今年初新一代基座大模型 GLM-4 的到来,GLM 系列模型实现了性能比肩 GPT-4,自然语言、多模态、Agent 能力全方位提升的同时推理速度更快、成本更低。
目前,GLM 系列大模型的研究成果已经涵盖了数学、文生图、图像理解、视觉 UI 理解、Agent 等领域。以 ChatGLM-Math 为例,该模型通过独特的「Self-Critique」迭代训练方法和自我反馈机制,实现了 LLM 的数学能力的进一步强化。

论文地址:https://arxiv.org/pdf/2404.02893
与此同时,CogView 文生图模型、CodeGeeX 代码模型、CogVLM 多模态理解模型、GLM-4V 多模态大模型和 All-Tools 功能以及 AI 助手智谱清言也在持续进步,比如基于 CogVLM 开发的具有视觉 Agent 能力的模型 CogAgent、更快更精细的文生图模型 CogView3、让多模态模型具有操作链的通用视觉语言模型 CogCoM。
快速迭代的大模型能力,让研究者们更加期待 GLM 大模型团队未来的进一步动作。在演讲中,GLM 大模型团队深入解读了 GLM 系列大模型下一阶段面向 AGI 的三个探索方向。

第一,GLM-4 的后续升级版本,即 GLM-4.5 及其升级模型,它们将基于超级认知 SuperIntelligence 和超级对齐 SuperAlignment 技术打造。
在持续提升文本能力的基础上,GLM 大模型团队计划将文本、图像、视频、音频等多种模态混合在一起训练,构建真正原生的多模态模型,同时超级对齐 SuperAlignment 技术协助将提升大模型的安全性。
第二,提出 GLM-OS 概念,即以大模型为中心的通用计算系统,旨在解决更加复杂的问题。
在 ICLR 现场,GLM 大模型团队详细阐述了 GLM-OS 的实现方式:基于已有 All-Tools 能力加上内存记忆 memory 和自我反馈 self-reflection 机制,GLM-OS 有望实现模仿人类的 Plan-Do-Check-Act 循环。首先做出计划,然后初步尝试形成反馈,基于反馈结果调整规划,然后再行动以期达到更好的效果。大模型依靠 PDCA 循环机制形成自我反馈和自我提升 —— 恰如人类自己所做的一样。
第三,GLM 大模型团队在现场首次公开了名为「GLM-zero」的技术项目。
这一项目是在 2019 年开展的,旨在研究人类的「无意识」学习机制。该机制是人类认知能力的重要组成部分,包括自我学习 self-instruct、自我反思 self-reflection 和自我批评 self-critics。
「当人在睡觉的时候,大脑依然在无意识地学习。」GLM 大模型团队表示,人脑中存在着反馈 feedback 和决策 decision-making 两个系统,分别对应着大模型和内存记忆两大部分,GLM-zero 的相关研究将进一步拓展人类对意识、知识、学习行为的理解。
GLM 大模型团队认为,尽管还处于非常早期的研究阶段,但 GLM-zero 可以视为通向 AGI 的必经之路。
好了,本文到此结束,带大家了解了《在ICLR 2024这场演讲中,智谱AI首次公开神秘项目「GLM-zero」》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多科技周边知识!

- 上一篇
- 折叠屏iPhone研发获新进展 苹果与三星签署显示屏供应协议

- 下一篇
- 3倍生成速度还降内存成本,超越Medusa2的高效解码框架终于来了
-
- 科技周边 · 人工智能 | 7分钟前 | 亚马逊
- 亚马逊微软数据中心租赁进度放缓
- 192浏览 收藏
-
- 科技周边 · 人工智能 | 2小时前 |
- 特斯拉股价开盘跌5.6%,Q1交付33万辆同比降13%
- 397浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 笔灵AI生成答辩PPT
- 探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
- 24次使用
-
- 知网AIGC检测服务系统
- 知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
- 38次使用
-
- AIGC检测-Aibiye
- AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
- 38次使用
-
- 易笔AI论文
- 易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
- 50次使用
-
- 笔启AI论文写作平台
- 笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
- 41次使用
-
- GPT-4王者加冕!读图做题性能炸天,凭自己就能考上斯坦福
- 2023-04-25 501浏览
-
- 单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖
- 2023-04-24 501浏览
-
- ChatGPT 真的会接管世界吗?
- 2023-04-13 501浏览
-
- VR的终极形态是「假眼」?Neuralink前联合创始人掏出新产品:科学之眼!
- 2023-04-30 501浏览
-
- 实现实时制造可视性优势有哪些?
- 2023-04-15 501浏览