吴恩达、Hinton最新对话!AI不是随机鹦鹉,共识胜过一切,LeCun双手赞成
本篇文章主要是结合我之前面试的各种经历和实战开发中遇到的问题解决经验整理的,希望这篇《吴恩达、Hinton最新对话!AI不是随机鹦鹉,共识胜过一切,LeCun双手赞成》对你有很大帮助!欢迎收藏,分享给更多的需要的朋友学习~
近来,AI安全已成为高度命中的话题。
AI「教父」Geoffrey Hinton和吴恩达就人工智能和灾难性风险进行了一次深度的隔空对话。
吴恩达今日发文分享了他们的共同想法:
- 人工智能科学家对风险达成共识很重要。类似于气候科学家,他们对气候变化有大致的共识,所以能制定良好的政策。
- 人工智能模型是否了解这个世界?我们的答案是肯定的。如果我们列出这些关键技术问题,并形成共同观点,将有助于推动人类在风险方面达成共识。
Hinton表示,
以前我经常和吴恩达交谈,很高兴再次见面并了解到他对最近人工智能发展带来的各种风险有什么看法。在许多方面,我们已经达成了共识,尤其是在研究人员需要就风险达成共识以向政策制定者提供信息方面。
在此之前,吴恩达同样和Yoshua Bengio进行了人工智能风险的对话。
他们得出的一致意见是,阐明AI可能带来重大风险的具体场景。
接下来,一起来看看两位AI大佬都具体讨论了什么。
急需共识!
首先,Hinton提出,最重要的是——共识。
他表示,现在整个AI社群缺乏一种统一的共识。就像气候科学家达成的共识一样,AI科学家同样需要。
在Hinton看来,之所以我们需要一个共识,是因为如果没有的话,每个AI科学家各执一词,那么政府和政策制定者就可以随心从其中选择一个符合自身利益的观点作为指导。
这显然会失去公允性。
而从目前的情况来看,AI科学家之间的不同观点差异化很大。
Hinton认为,如果我们各执一词的局面能快点过去,大家都能达成一致,共同接受AI可能带来的某些主要威胁,认识到规范AI发展的紧迫性,就好了。
吴恩达赞成Hinton的观点。
虽说他现在还不觉得AI界差异化大到分裂,但好像在慢慢往那个方向演变。
主流AI界的观点非常两极分化,各阵营之间都在不遗余力地表达诉求。不过在吴恩达看来,这种表达更像一种争吵,而不是和谐的对话。
当然,吴恩达对AI社群还是有些信心的,他希望我们能共同找到一些共识,妥善进行对话,这样才能更好地帮助政策制定者制定相关计划。
接下来,Hinton聊到了另一个关键问题,也是他认为目前AI科学家们难以达成某个共识的原因——像GPT-4和Bard这种聊天机器人,究竟理不理解他们自己生成的话?
有些人认为AI懂,有些人认为它们不懂,只是随机鹦鹉罢了。
Hinton认为,只要这种差异还存在,那么AI界就很难达成一个共识。因此,他认为当务之急就是厘清这个问题。
当然,就他自己来讲肯定是认为AI懂的,AI也并不只是统计数据。
他也提到了诸如Yan LeCun等知名科学家认为AI并不能理解。
这更加凸显了在这个问题上调和清楚地重要性。
吴恩达表示,判断AI究竟是否能理解并不简单,因为好像并不存在一个标准,或者某种测试。
他自己的观点是,他认为无论是LLM也好,其它AI大模型也罢,都是在构建一种世界模型。而AI在这个过程中可能会有些理解。
当然,他说这只是他目前的观点。
除此以外,他同意Hinton的说法,研究人员必须先就这个问题达成一致,才能继续聊后面的风险、危机那堆东西。
Hinton接着表示,AI根据数据库,通过前面的单词判断、预测下一个单词的生成,这件事在Hinton眼中就是理解的一种。
他认为这和我们人脑思考的机制其实差不了多少。
当然,究竟算不算理解还需要进一步的讨论,但最起码不是随机鹦鹉那么简单。
吴恩达认为,有一些问题会让持不同观点的人得出不同的结论,甚至推出AI将会灭绝人类。
他表示,想要更好地理解AI,我们需要更多去了解,更多去讨论。
这样才能建设一个包含着广泛共识的AI社群。
LeCun双手赞成,再提「世界模型」
前段时间,在全世界呼吁暂停超强AI研发期间,吴恩达与LeCun开直播就此话题展开了讨论。
他们同时反对暂停AI是完全错误的,汽车刚发明时没有安全带和交通信号灯,人工智能与先前的技术进步之间没有本质上的差异。
这次,LeCun就吴恩达和Hinton对话,再次提出了自己的「世界模型」,以及当前人工智能连阿猫阿狗都不如。
我们都同意,我们需要在一些问题上达成共识。
我同意Geoffrey Hinton说的,即LLM有「某种程度」的理解力,还有称它们「只是统计数据」是一种误导。
LLM对世界的理解是非常肤浅的,很大程度上,是因为它们纯粹是在文本上训练的。
从视觉中学习世界如何运作的系统,将对现实有更深刻的理解。其次,自回归LLM的推理和规划能力非常有限。
我认为,如果没有(1)从视频等感官输入中学习「世界模型」,(2)一个能够推理和规划的架构(不仅仅是自回归),我们不可能接近人类水平的人工智能(甚至是猫级人工智能)。
现在,如果我们有能够规划的架构,它们将是「目标驱动的」:它们的规划将通过在推理时(不仅仅是训练时)优化一组目标来工作。
这些目标可以包括使这些系统安全和顺从的「护栏」,即使它们最终拥有比人类更好的世界模型。
然后,问题变成了设计(或训练)好的目标函数,以保证安全和效率。这是一个困难的工程问题,但并不像有些人说的那样难。
LeCun的观点立马遭到了网友的反驳:感官对人工智能理解的重要性被高估了。
无论如何,我们所有的感官都简化为电化学信号,供大脑处理。
文本摄取是一种元感觉,可以描述来自触觉、视觉、嗅觉的信息…… 摄取大量元感官文本,已经让像必应(Sydney版)这样的LLM有能力,以一种优于多数人的方式表达生活和世界。
因此,我认为一种重要的理解能力已经存在,尽管时隐时现。而且更多地是由于资源限制,以及处理人员有意设置的沙盒,而不是缺乏感官数据。
我认为是时候团结起来,为社会和人工智能的进步而努力了。想想吧,你还是baby人工智能。我们难道不想教那个孩子如何成为技术有机的统一者,而不是世界上的野兽主义者?
当他变得有知觉时,他们不仅会更快乐,而且世界也不会陷入战争。看看泰恩河畔的纽卡斯尔。如此短暂的和平时期,但创造的美丽是伟大的。
而吴恩达和Hinton所说的共识,目前来看似乎不太可能。不是你我个人能力所及,需要所有人有这样的意愿。
还有网友称,这是相当有争议的谈话。
我确实想知道,当我教2岁的孩子说话时,他的行为更像随机鹦鹉,还是真的理解上下文?或者两者兼而有之?
因为他的上下文向量比LLM丰富得多(文本、语气、面部表情、环境等)。但是我确实想知道,如果一个人关闭了另一个人的所有感官,唯一可用的输入是一些「文本嵌入」(文本输入->神经刺激),那个人会表现得更像随机鹦鹉,还是能理解上下文?
Hinton:超级AI比预期来得快
离职谷歌后的Hinton,已经全身心投入AI安全。6月10日,Hinton在智源大会上再次谈及AI风险。
如果一个大型神经网络能够模仿人类语言获取知识,甚至可以自取自用,会发生什么?
毋庸置疑,因为能够获取更多的数据,这个AI系统肯定要超越人类。
最坏的情况便是,不法分子会利用超级智能操纵选民,赢得战争。
另外,如果允许超级AI自己制定子目标,一个子目标是获得更多权力,这个超级AI就会为了达成目标,操纵使用它的人类。
值得一提的是,这样超级AI的实现,便可通过「凡人计算」(mortal computation)。
2022年12月,Hinton曾发表的一篇论文The Forward-Forward Algorithm: Some Preliminary Investigations在最后一节提到了「凡人计算」。
论文地址:https://arxiv.org/pdf/2212.13345.pdf
如果你希望万亿参数神经网络只消耗几瓦特的电,「凡人计算」可能是唯一的选择。
他表示,如果我们真的放弃软件和硬件的分离,我们就会得到「凡人计算」。由此,我们可以使用非常低功耗的模拟计算,而这正是大脑正在做的事情。
「凡人计算」能够实现将人工智能与硬件紧密结合的新型计算机。
这意味着,未来将GPT-3放入烤面包机中,只需1美元,耗电只需几瓦。
因此,凡人计算的主要问题是,学习过程必须利用它所运行的硬件的特定模拟属性,而无需确切知道这些属性是什么。
比如,不知道将神经元的输入与神经元的输出相关联的确切函数,并且可能不知道连接性。
这也就是说,我们不能使用反向传播算法之类的东西来获得梯度。
所以问题是,如果我们不能使用反向传播,我们还能做什么,因为我们现在都高度依赖反向传播。
就此,Hinton提出了一种解决办法:前向算法。
而前向算法是一种有前途的候选算法,尽管它在大型神经网络中的扩展能力还有待观察。
在Hinton看来,人工神经网络很快要比真实神经网络更智能,而超级智能将会比预期快得多。
由此,现在世界需要达成一个共识,AI未来还应该由人类携手创造。
今天关于《吴恩达、Hinton最新对话!AI不是随机鹦鹉,共识胜过一切,LeCun双手赞成》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

- 上一篇
- 英首相顾问警告:AI两年后或“强大到能杀人”

- 下一篇
- MySql的Query Cache:如何优化MySQL的查询效率
-
- 科技周边 · 人工智能 | 1小时前 | 亚马逊
- 亚马逊微软数据中心租赁进度放缓
- 192浏览 收藏
-
- 科技周边 · 人工智能 | 3小时前 |
- 特斯拉股价开盘跌5.6%,Q1交付33万辆同比降13%
- 397浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 508次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 笔灵AI生成答辩PPT
- 探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
- 24次使用
-
- 知网AIGC检测服务系统
- 知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
- 39次使用
-
- AIGC检测-Aibiye
- AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
- 38次使用
-
- 易笔AI论文
- 易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
- 50次使用
-
- 笔启AI论文写作平台
- 笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
- 41次使用
-
- GPT-4王者加冕!读图做题性能炸天,凭自己就能考上斯坦福
- 2023-04-25 501浏览
-
- 单块V100训练模型提速72倍!尤洋团队新成果获AAAI 2023杰出论文奖
- 2023-04-24 501浏览
-
- ChatGPT 真的会接管世界吗?
- 2023-04-13 501浏览
-
- VR的终极形态是「假眼」?Neuralink前联合创始人掏出新产品:科学之眼!
- 2023-04-30 501浏览
-
- 实现实时制造可视性优势有哪些?
- 2023-04-15 501浏览