当前位置:首页 > 文章列表 > 科技周边 > 人工智能 > 谷歌开展重要研究,使用两亿参数时序模型取代LLM,引发质疑

谷歌开展重要研究,使用两亿参数时序模型取代LLM,引发质疑

来源:51CTO.COM 2024-02-05 20:58:58 0浏览 收藏

哈喽!今天心血来潮给大家带来了《谷歌开展重要研究,使用两亿参数时序模型取代LLM,引发质疑》,想必大家应该对科技周边都不陌生吧,那么阅读本文就都不会很困难,以下内容主要涉及到,若是你正在学习科技周边,千万别错过这篇文章~希望能帮助到你!

最近,谷歌的一篇论文在 X 等社交媒体平台上引发了一些争议。

这篇论文的标题是「A decoder-only foundation model for time-series forecasting(用于时间序列预测的仅解码器基础模型)」。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

时间序列预测是通过分析历史数据的趋势和模式来预测未来数据变化。这项技术在气象预报、交通流量预测和商业销售等领域得到广泛应用。在零售业中,准确预测需求可以降低库存成本并增加收入。

近年来,深度学习模型已被广泛应用于预测多变量时间序列数据。其出色的性能在不同环境中得到了验证。

然而,这些模型也面临一些挑战。大多数深度学习架构需要漫长而复杂的训练和验证周期。因此,迫切需要一个开箱即用的基础模型来缩短这一周期。

谷歌的新论文旨在解决时间序列预测的问题。他们提出了一个仅解码器基础模型,名为TimesFM,用于时间序列预测。TimesFM是一个仅有200M参数的单一预测模型,在一个包含1000亿个真实世界时间点的大型时间序列语料库上进行预训练。研究人员发现,尽管规模相对较小,但TimesFM在各个领域和时间粒度的未见数据集上的零样本性能接近于显式训练的SOTA监督方法。这一研究成果为时间序列预测领域带来了新的可能性。

这个想法看起来很有前景。有人评价说:“TimesFM证明了预训练大型时间序列语料库的力量,在各种公开的基准测试中展示了令人称奇的零样本性能。”

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

然而,一些人对这项评估方法和基准提出了质疑。伦敦大学皇家霍洛威学院的Valery Manokhin博士指出,论文作者在评估中犯了一些初学者常见的错误,并采用了一些具有欺骗性的基准。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

事情到底是怎么回事?我们先来看看谷歌的这篇论文写了什么。

被质疑的论文写了什么?

上周五,谷歌 AI 专门用博客介绍了这一研究。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

我们目前常见的大语言模型(LLM)通常在训练时仅用解码器,过程涉及三个步骤。首先,文本被分解为称为标记的子词 ——token。然后,token 被输入到堆叠的因果 transformer 层中,这些层会生成与每个输入 token 相对应的输出。最后,第 i 个 token 对应的输出总结了之前 token 的所有信息并预测第 (i+1) 个 token。

在推理过程中,LLM 一次生成一个 token 的输出。例如,当提示「What is the capital of France?」时,它可能会生成 token「The」,然后以「What is the capital of France? The」为条件。生成下一个标记「capital」,依此类推,直到生成完整的答案:「The capital of France is Paris」。

谷歌认为,时间序列预测的基础模型可以适应可变的上下文(我们观察到的内容)和范围(我们查询模型预测的内容)长度,同时具有足够的能力对大型预训练数据集中的所有模式进行编码。

与 LLM 类似,我们可以使用堆叠 transformer 层(自注意力层和前馈层)作为 TimesFM 模型的主要构建块。在时间序列预测的背景下,将 patch(一组连续的时间点)视为最近长期预测工作的 token。随后,任务是根据堆叠 transformer 层末尾的第 i 个输出来预测第 (i+1) 个时间点 patch。

在论文《A decoder-only foundation model for time-series forecasting》中,谷歌研究人员尝试设计了一个时间序列基础模型,在零样本(zero-shot)任务上取得了不错的效果:

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

论文链接:https://arxiv.org/abs/2310.10688

该研究中,研究者设计了一种用于预测的时间序列基础模型 TimesFM,其在各种公共数据集上的 zero-shot 能力都接近于目前业内的顶尖水平。此模型是一种在包含真实世界和合成数据的大型时间序列语料库上进行预训练的,修补解码器式注意力模型,参数只有两亿。

谷歌表示,对于首次遇见的各种预测数据集进行的实验表明,该模型可以在不同领域、预测范围和时间粒度上产生准确的零样本预测。

时间序列的基础模型可以大幅减少训练数据和计算需求,为应用端带来很多好处。不过,时间序列推理的基础模型是否是一种可行的思路,人们还未有定论,首先与 NLP 不同,时间序列没有明确定义的词汇或语法。此外,新模型需要支持具有不同历史长度(上下文)、预测长度(范围)和时间粒度的预测。此外,与用于预训练语言模型的大量公共文本数据不同,大型时间序列数据集并不容易构建。

谷歌表示,尽管存在这些问题,他们还是提供了证据来肯定地回答上述问题。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

图 1:训练过程中的模型架构。其中显示了可以分解为输入补丁的特定长度的输入时间序列。

它与常规的语言模型有几个关键的区别。首先,我们需要一个具有残差连接的多层感知器块,将时间序列 patch 转换为可以与位置编码(PE)一起输入到 Transformer 层的 token。为此,谷歌使用了与他们之前的长期预测工作类似的残差块。其次,在另一端,来自堆叠 Transformer 的输出 token 可用于预测比输入 patch 长度更长的后续时间点的长度,即输出 patch 长度可以大于输入 patch 长度。

谷歌研究者认为,即使基线针对每个特定任务进行了专门训练或调整,TimesFM 的单个预训练模型也可以在基准测试中接近或超过基线模型的性能。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

图 2:新方法与常规方法在三组数据集上的平均性能对比,指标越低越好。谷歌表示,在基线测试中,只有 TimesFM 和 llmtime 是零样本。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

图 6:在 Darts 和 Monash 数据集上的推理可视化。右侧的图放大了左侧的预测部分。

看起来,从背景到思路,方法到测试的一套流程都已走完,事情就顺理成章了,谷歌还计划在今年内通过 Google Cloud Vertex AI 向外部客户提供此模型。

哪知道论文竟引起了争议。

Valery Manokhin 提出了哪些质疑?  

对论文评估方法和所选基准提出质疑的是机器学习博士 Valery Manokhin。他的研究领域包括概率预测、符合预测、机器学习、深度学习、人工神经网络、人工智能和数据挖掘等。

他指出,首先,论文中使用图表(特别是图 6)以视觉方式展示模型性能是一个初学者的错误。Christoph Bergmeir 和 Hansika Hewamalage 在其教程《数据科学家的预测评估:常见陷阱和最佳实践(Forecast Evaluation for Data Scientists: Common Pitfalls and Best Practices)》中明确指出,生成预测的视觉吸引力或其可能性不是评价预测的好标准。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

接下来,Valery Manokhin 提到,谷歌的作者使用了一种标准策略来美化他们的「基础模型」性能,即选择那些可以被传统模型非常容易且几乎完美地拟合的经典数据集(如非常老的航空乘客数据)。而且,谷歌的作者没有选择传统模型作为基准进行比较,而是选择了另一个表现不佳的模型(llmtime)作为对照。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

针对 Valery 提出的质疑,谷歌研究院的 Rajat Sen(论文作者之一)在帖子下面给出了回应。首先,他指出,批评者仅关注了论文中一个关于航空乘客数据集的示例,并错误地认为这是他们唯一展示的性能数据。作者澄清说他们实际上在多个数据集(Monash、Darts 和 ETT)上报告了模型的性能。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

而且,作者强调,他们并没有通过视觉方式来评估模型性能。图 6 仅仅是为了示例目的,而综合性能是在图 2 中报告的。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

作者明确指出,他们没有选择性挑选结果来美化模型性能。在图 2 中,他们公正地展示了一些监督学习模型可能比他们的模型表现得更好,但他们的模型是一个零样本模型,这是一个重要的优势。

但 Valery Manokhin 随后又指出,在 Monash 数据集上,谷歌的 TimesFM 落后于其他模型。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

对此,Rajat Sen 指出,Valery Manokhin 忽略了一个很重要的点:TimesFM 的表现优于 Monash 上的很多既有基线,但最重要的是,这些基线是单独在这些数据集上「训练」的,而 TimesFM 是「零样本」预测的。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

随后,二人的争论又集中到了文中的一句话上。作者在论文的引入部分写道,「在一些预测竞赛,如 M5 竞赛(M5 “Accuracy” competition)和 IARAI Traffic4cast 竞赛中,几乎所有获胜的解决方案都是基于深度神经网络的。」Valery Manokhin 认为这句话具有误导性。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

对此,Rajat Sen 表示,这不是文章的核心论点,还有进一步讨论的空间。

两亿参数时序模型替代LLM?谷歌突破性研究被批「犯新手错误」

如今,二人的争论还在 X 平台上持续更新,感兴趣的读者可以前去观战。

文中关于AI,模型的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《谷歌开展重要研究,使用两亿参数时序模型取代LLM,引发质疑》文章吧,也可关注golang学习网公众号了解相关技术文章。

版本声明
本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
谁能在逛街时不戴Vision Pro?谁能在逛街时不戴Vision Pro?
上一篇
谁能在逛街时不戴Vision Pro?
CMUÐ的新突破:机器狗天赋敏捷,超高速度成功穿越障碍,兼顾速度和安全!
下一篇
CMUÐ的新突破:机器狗天赋敏捷,超高速度成功穿越障碍,兼顾速度和安全!
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • AI Make Song:零门槛AI音乐创作平台,助你轻松制作个性化音乐
    AI Make Song
    AI Make Song是一款革命性的AI音乐生成平台,提供文本和歌词转音乐的双模式输入,支持多语言及商业友好版权体系。无论你是音乐爱好者、内容创作者还是广告从业者,都能在这里实现“用文字创造音乐”的梦想。平台已生成超百万首原创音乐,覆盖全球20个国家,用户满意度高达95%。
    2次使用
  • SongGenerator.io:零门槛AI音乐生成器,快速创作高质量音乐
    SongGenerator
    探索SongGenerator.io,零门槛、全免费的AI音乐生成器。无需注册,通过简单文本输入即可生成多风格音乐,适用于内容创作者、音乐爱好者和教育工作者。日均生成量超10万次,全球50国家用户信赖。
    2次使用
  •  BeArt AI换脸:免费在线工具,轻松实现照片、视频、GIF换脸
    BeArt AI换脸
    探索BeArt AI换脸工具,免费在线使用,无需下载软件,即可对照片、视频和GIF进行高质量换脸。体验快速、流畅、无水印的换脸效果,适用于娱乐创作、影视制作、广告营销等多种场景。
    2次使用
  • SEO标题协启动:AI驱动的智能对话与内容生成平台 - 提升创作效率
    协启动
    SEO摘要协启动(XieQiDong Chatbot)是由深圳协启动传媒有限公司运营的AI智能服务平台,提供多模型支持的对话服务、文档处理和图像生成工具,旨在提升用户内容创作与信息处理效率。平台支持订阅制付费,适合个人及企业用户,满足日常聊天、文案生成、学习辅助等需求。
    9次使用
  • Brev AI:零注册门槛的全功能免费AI音乐创作平台
    Brev AI
    探索Brev AI,一个无需注册即可免费使用的AI音乐创作平台,提供多功能工具如音乐生成、去人声、歌词创作等,适用于内容创作、商业配乐和个人创作,满足您的音乐需求。
    10次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码