暂停GPT-5研发呼吁引激战!吴恩达、LeCun带头反对,Bengio站队支持
知识点掌握了,还需要不断练习才能熟练运用。下面golang学习网给大家带来一个科技周边开发实战,手把手教大家学习《暂停GPT-5研发呼吁引激战!吴恩达、LeCun带头反对,Bengio站队支持》,在实现功能的过程中也带大家重新温习相关知识点,温故而知新,回头看看说不定又有不一样的感悟!
昨天,千位大佬写的暂停超强AI训练六个月的联名信,如同一枚炸弹一般,在国内外的互联网上炸响。
经过了一天的唇枪舌剑,几位关键人物以及其他各路大牛,都纷纷出来公开回应。
有的非常官方,有的十分个性,也有人并没有直面问题。但有一点可以肯定,不论这些大佬自己的观点,还是背后所代表的利益集团,都值得细品。
有趣的是,在图灵三巨头中,一位带头签名,一位强烈反对,还有一位不发一言。
Bengio签名、Hinton沉默、LeCun反对
吴恩达(反对派)
此次事件中,前谷歌大脑成员、在线教育平台Coursera创始人吴恩达是旗帜鲜明的反对派。
他明确亮出了自己的态度:把「让AI取得超越GPT-4的进展」暂停6个月,这个想法很糟糕。
他表示,自己已经在教育、医疗保健、食品等领域看到了许多新的AI应用,许多人将因此受益。而改进GPT-4也会有好处。
我们该做的,应该是在AI创造的巨大价值与现实风险之间,取得一个平衡。
对于联名信中提到的「如果不能迅速暂停对超强AI的训练,就应该让政府介入」,吴恩达也表示这种想法很糟糕。
他表示,让政府暂停他们不了解的新兴技术是反竞争的,这树立了一个糟糕的先例,是一个很可怕的政策创新。
他承认,负责任的AI很重要,AI也的确有风险。
但媒体渲染的「AI公司正在疯狂发布危险的代码」,显然是太夸张了。绝大多数AI团队,都非常重视负责任的AI和安全。不过他也承认,「遗憾的是,不是全部」。
最后他再次强调:
6个月的暂停期,不是一个切实可行的建议。为了提高人工智能的安全性,围绕透明度和审计的法规将更加实用,并产生更大的影响。在我们推进技术的同时,让我们也更多地投资于安全,而不是扼杀进步。
而他的推特下面,已经网友表示强烈反对:大佬之所以云淡风轻,大概是因为失业的痛苦不会落到他们头上。
LeCun(反对派)
联名信一发出,就有网友奔走相告:图灵奖巨头Bengio和LeCun都在信上签了名!
而时时冲浪在网络第一线的LeCun,立马辟谣:没,我没签,我不同意这封信的前提。
有网友表示,我也不同意这封信,但我很好奇:你不同意这封信的原因,是觉得LLM不够先进,根本威胁不到人类吗,还是其他原因?
但LeCun对于这些问题,都没有回答。
在谜一般地沉默了20小时后,LeCun忽然转发了一位网友的推文:
「OpenAI足足等了6个月,才发布了GPT4!他们甚至为此还写了一份白皮书....」
对此,LeCun大赞道:说得对,所谓「暂停研发」,不过就是「秘密研发」罢了,这与一些签名者所希望的恰恰完全相反。
看来,什么都瞒不过LeCun的慧眼啊。
之前提问的网友也表示同意:这就是我什么反对这个请愿书的原因——没有哪个「坏人」会真正停止。
「所以这就像一项没有人遵守的武器条约?历史上这样的例子不多吗?」
过一会,他又转发了一位大佬的推特。
这位大佬说,「我也没签。这封信充斥着一堆可怕的修辞和无效/不存在的政策处方。」 LeCun说,「我同意」。
Bengio和Marcus(赞成派)
公开信署名的第一位大佬,便是赫赫有名的图灵奖得主Yoshua Bengio。
当然了,纽约大学教授马库斯也投了赞成票。他似乎是最早曝光这次公开信的人。
而讨论声逐渐喧嚣之后,他也火速发了一篇博客解释自己的立场,依然充满亮点。
突发新闻:我之前提到的那封信现在公开了。这封信呼吁暂停「比GPT-4更强大」的AI的训练6个月。许多知名人士签了名。我也加入了。
我没有参与起草它,因为还有一些别的事需要大惊小怪(例如,比GPT-4更强大的AI,究竟是指哪些AI?既然GPT-4的架构或训练集的细节还没公布,那我们从何得知呢?)——但这封信的精神是我所支持的:在我们能更好地处理风险和收益之前,我们应该谨慎行事。
看看接下来会发生什么,将会非常有趣。
而刚刚马库斯表示百分之百赞同的另一个观点,也非常有趣,这一观点称:
GPT-5不会是AGI。几乎可以肯定,没有GPT模型会是AGI。我们今天使用的方法(梯度下降)优化的任何模型完全不可能成为AGI。即将问世的GPT模型肯定会改变世界,但过度炒作是疯狂的。
Altman(不置可否)
截至目前,对于这封公开信,Sam Altman并未作出明确表态。
不过呢,他倒是发表了一些关于通用人工智能的观点。
构成好的通用人工智能的要素:
1.对齐超级智能的技术能力
2.大多数领先的AGI工作之间的充分协调
3. 一个有效的全球监管框架
有网友质疑:「与什么对齐?和谁对齐?与某些人对齐,就意味着与另外一些人不对齐。」
这个评论亮了:「那你倒是让它Open啊。」
而OpenAI的另一位创始人Greg Brockman转发了Altman的推文,再次强调OpenAI的使命「是确保AGI惠及全人类。」
再次有网友指出华点:你们这些大佬整天说「与设计者的意图对齐」,但除此之外谁都不知道究竟对齐是指什么。
Yudkowsky(激进派)
还有一位名叫Eliezer Yudkowsky的决策理论家,态度更为激进:
暂停AI开发是不够的,我们需要把AI全部关闭!全部关闭!
如果继续下去,我们每个人都会死。
公开信一发布,Yudkowsky立马写了一篇长文发表于TIME杂志上。
他表示,自己没有签字,原因是在他看来,这封信太温和了。
这封信低估了事态的严重性,要求解决的问题太少了。
他说,关键问题并不在于「与人类竞争」的智能,很显然,当AI变得比人更聪明,这一步是显然的。
关键在于,包括他在内的许多研究人员都认为,构建一个拥有超人智慧的AI最有可能导致的后果就是,地球上的每个人都会死去。
不是「或许可能」,而是「必然会」。
如果没有足够的精确度,最有可能的结果就是,我们造出的AI不会做我们想做的事,也不会关心我们,也不会关心其他有知觉的生命。
理论上,我们应该可以教会AI学会这种关怀,但现在我们并不知道该怎么做。
如果没有这种关怀,我们得到的结果就是:AI不爱你,也不恨你,你只是一堆原子组成的材料,它可以拿来做任何事。
而如果人类想要反抗超人AI,必然会失败,就好比「11世纪试图打败21世纪」,「南方古猿试图打败智人」。
Yudkowsky表示,我们想象中会做坏事的AI,就是一个住在互联网上、每天给人类发送恶意邮件的思想家,但实际上,它可能是一个充满敌意的超人AI,一个思考速度数百万倍于人类的外星文明,在它看来,人类很愚蠢,很缓慢。
当这个AI足够智能后,它不会只待在计算机中。它可以把DNA序列通过邮件发给实验室,实验室将按需生产蛋白质,然后AI就拥有了生命形式。随后,地球上的所有生物都会死亡。
这种情况下,人类该如何生存?目前我们毫无计划。
OpenAI只是公开呼吁,未来的AI需要对齐。而另一个领先的AI实验室DeepMind,根本没有任何计划。
来自OpenAI官方博客
不管AI有没有意识,这些危险都存在。它强大的认知系统可以努力优化,并计算满足复杂结果的标准输出。
的确,当前的AI可能只是从训练数据中模仿了自我意识。但我们实际上对这些系统的内部结构知之甚少。
如果我们依然对GPT-4无知,并且GPT-5进化出了惊人的能力, 就像从GPT-3到GPT-4一样,那我们很难知道,究竟是人类创造了GPT-5,还是AI自己。
在2月7号,微软CEO纳德拉还幸灾乐祸地公开表示,新必应逼得谷歌只能「出来跳一段舞」了。
他的行为很不理智。
早在30年前,我们就该思考这个问题了,6个月并不足以弥合差距。
从AI的概念提出到今天,已经有60多年了。我们应该至少用30年来保证超人AI「不会杀死任何一个人」。
我们根本无法从错误中吸取教训,因为一旦错了,你就已经死了。
如果暂停6个月,就能让地球存活下来,我会赞同,但并不会。
我们要做的事情,是这些:
1. 新的大语言模型的训练不仅要无限期暂停,还要在全球范围内实施。
而且不能有任何例外,包括政府或军队。
2. 关闭所有大型GPU集群,这些都是训练最强大AI的大型计算设施。
暂停所有正在训练大型AI的模型,为所有人在训练AI系统时使用的算力设置上限,并在未来几年逐渐降低这个上限,以补偿更高效的训练算法。
政府和军队也不例外,立即制定多国协议,以防止被禁行为转移到其他地方。
追踪所有售出的GPU,如果有情报显示协议之外的国家正在建设GPU集群,应该通过空袭摧毁这家违规的数据中心。
比起国家间的武装冲突,更应该担心的是暂停被违反。不要把任何事情都看作是国家利益之间的冲突,要清楚任何谈论军备竞赛的人都是傻子。
在这方面,我们所有人要么共存,要么共亡,这不是政策,而是一项自然事实。
投票
由于签名太过火爆,团队决定暂停先暂停显示,以便让审核可以跟上。(名单顶部的签名都是直接经过验证的)
以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于科技周边的相关知识,也可关注golang学习网公众号。

- 上一篇
- 微软推出 Bing Chat v98,尽可能减少用户被机器人拒绝的情况

- 下一篇
- 南洋理工发布量化交易大师TradeMaster,涵盖15种强化学习算法
-
- 科技周边 · 人工智能 | 2小时前 |
- 英伟达Eagle2.5视觉语言模型震撼上市
- 274浏览 收藏
-
- 科技周边 · 人工智能 | 4小时前 | 人工智能 隐私 苹果 用户数据 AppleIntelligence
- 苹果利用用户数据提升AI实力
- 221浏览 收藏
-
- 科技周边 · 人工智能 | 4小时前 | 项目文件备份 豆包AI备份
- 豆包AI项目文件备份攻略,防丢必看
- 276浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 笔灵AI生成答辩PPT
- 探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
- 20次使用
-
- 知网AIGC检测服务系统
- 知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
- 29次使用
-
- AIGC检测-Aibiye
- AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
- 35次使用
-
- 易笔AI论文
- 易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
- 43次使用
-
- 笔启AI论文写作平台
- 笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
- 37次使用
-
- GPT-4王者加冕!读图做题性能炸天,凭自己就能考上斯坦福
- 2023-04-25 501浏览
-
- 单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖
- 2023-04-24 501浏览
-
- ChatGPT 真的会接管世界吗?
- 2023-04-13 501浏览
-
- VR的终极形态是「假眼」?Neuralink前联合创始人掏出新产品:科学之眼!
- 2023-04-30 501浏览
-
- 实现实时制造可视性优势有哪些?
- 2023-04-15 501浏览