作者:Gil Press 编译:Felix, PANews
2025年7月9日,英伟达成为首家市值达到4万亿美元的上市公司。接下来英伟达和起伏不定的AI领域又将何去何从?尽管预测很难,但有大量的数据可供利用。至少能帮助看清过去的预测为何没有实现,以及是在哪些方面、以何种方式、出于什么原因未能实现。这就是历史。
在人工智能(AI)80年的发展历程中,可以汲取哪些经验教训?这段历程中,资金投入时高时低,研究与开发方法千差万别,公众对其时而充满好奇,时而感到焦虑,时而又满怀兴奋。
AI的历史始于1943年12月,当时神经生理学家沃伦·S·麦卡洛克和逻辑学家沃尔特·皮茨发表了一篇关于数理逻辑的论文。在《神经活动中固有观念的逻辑演算》一文中,他们推测了理想化和简化的神经元网络,以及它们如何通过传递或不传递脉冲来执行简单的逻辑运算。
当时正在开创组织化学这一领域的拉尔夫·利利(Ralph Lillie)将麦卡洛克和皮茨的工作描述为在缺乏「实验事实」的情况下赋予「逻辑和数学模型以『现实性』」。后来,当该论文的假设未能通过实证检验时,麻省理工学院的杰罗姆·莱特文(Jerome Lettvin)指出,虽然神经病学和神经生物学领域忽视了这篇论文,但它却激励了「那些注定要成为新领域(如今被称为AI)爱好者的群体」。
事实上,麦卡洛克和皮茨的论文启发了「联结主义」,即当今占主导地位的AI的特定变体,如今被称为「深度学习」,最近又被重新命名为「AI」。尽管这种方法与大脑实际运作方式毫无关联,但支撑这种AI变体的统计分析方法——「人工神经网络」,通常被AI从业者和评论员描述为「模仿大脑」。权威人士、顶尖AI从业者德米斯·哈萨比斯(Demise Hassabis)在2017年宣称,麦卡洛克和皮茨对大脑运作方式的虚构描述以及类似的研究「持续为当代深度学习研究奠定基础」。
教训一:要警惕将工程学与科学混为一谈,将科学与推测混为一谈,以及将科学与满是数学符号和公式的论文混为一谈。最重要的是,要抵制「我们如同神明」这种错觉的诱惑,即认为人类与机器无异,人类能够创造出像人类一样的机器。
这种顽固且普遍存在的傲慢在过去80年里一直是科技泡沫以及AI周期性狂热的催化剂。
这不禁让人想起通用AI(AGI),即很快就会拥有类人智能甚至超级智能的机器的想法。
1957年,AI先驱赫伯特·西蒙宣称:「如今世界上已有了能思考、能学习、能创造的机器。」他还预言,十年内计算机将成为国际象棋冠军。1970年,另一位AI先驱马文·明斯基自信满满地表示:「在三到八年之内,我们就会拥有一台具有普通人一般智力的机器……一旦计算机掌控了局面,我们可能就再也无法夺回了。我们将仰仗它们的恩赐而生存。如果幸运的话,它们或许会决定把我们当作宠物养着。」
对通用AI即将问世的预期意义非凡,甚至影响政府的开支和政策。1981年,日本为第五代计算机项目拨款8.5亿美元,旨在开发出像人类一样思考的机器。对此,美国国防高级研究计划局在经历了漫长的「AI寒冬」之后,于1983年计划重新资助AI研究,以开发出能「像人类一样看、听、说和思考」的机器。
世界各地开明的政府花了大约十年时间和数十亿美元,才不仅对通用AI(AGI)有了清醒的认识,也认识到传统AI的局限性。但到了2012年,联结主义终于战胜了其他AI流派,新一轮关于通用AI即将来临的预测席卷全球。OpenAI在2023年宣称,超级智能AI——「人类有史以来最具影响力的发明」——可能在本十年内到来,并且「可能导致人类失去权力,甚至人类灭绝」。
教训二:警惕那些光鲜亮丽的新事物,要仔细、审慎、明智地审视它们。它们未必与之前关于机器何时能拥有与人类相似智能的种种猜测有多大不同。
深度学习的「教父」之一Yann LeCun曾表示:「要让机器像人类和动物那样高效学习,我们还缺少一些关键的东西,只是目前还不知道那是什么。」
多年来,通用AI(AGI)一直被说成「即将实现」,这都是由于「第一步谬论」。机器翻译先驱耶霍舒亚·巴尔-希尔勒(Yehoshua Bar-Hillel)是最早谈论机器智能局限性的人之一,他指出,许多人认为,如果有人演示了一台计算机可以完成一件直到最近才有人认为它能做到的事情,即使它做得很糟糕,也只需要进一步的技术发展,它就能完美地完成任务。人们普遍认为,只要耐心等待,最终就能实现。但巴尔-希尔勒早在20世纪50年代中期就警告说,事实并非如此,而且现实一次又一次地被证明并非如此。
教训三:从无法做某事到做得不好,通常比从做得不好到做得很好的距离要短得多。
在20世纪50年代和60年代,由于驱动计算机的半导体处理速度提升,许多人陷入了「第一步谬论」。随着硬件每年沿着「摩尔定律」这一可靠的上升轨迹发展,人们普遍认为机器智能也会与硬件同步发展。
然而,除了硬件性能的不断提升之外,AI的发展进入了一个新阶段,引入了两个新的要素:软件和数据收集。从20世纪60年代中期开始,专家系统(注:一个智能计算机程序系统)将新的关注点放在了获取和编程现实世界的知识上,尤其是特定领域专家的知识,以及他们的经验法则(启发式方法)。专家系统越来越受欢迎,到20世纪80年代,据估计,《财富》500强企业中有三分之二在日常业务活动中应用了这项技术。
然而,到了20世纪90年代初,这场AI热潮彻底破灭。众多AI初创企业倒闭,各大公司也纷纷冻结或取消了AI项目。早在1983年,专家系统先驱埃德·费根鲍姆就指出了导致它们消亡的「关键瓶颈」:知识获取过程的扩展,「这是一个非常繁琐、耗时且昂贵的过程。」
专家系统还面临着知识积累的难题。不断添加和更新规则的需求使它们难以维护且成本高昂。它们还暴露出与人类智能相比的思维机器的缺陷。它们很「脆弱」,在面对不寻常的输入时会犯下荒唐的错误,无法将其专业知识转移到新的领域,而且对周围的世界缺乏理解。在最根本的层面上,它们无法像人类那样从示例、经验、环境中学习。
教训四:初步的成功,即企业与政府机构的广泛采用以及大量公共和私人投资,即便历经十年或十五年,也未必能催生一个持久的「新产业」。泡沫往往会破裂。
在起起伏伏、炒作和挫折中,两种截然不同的AI开发方法一直在争夺学术界、公共和私人投资者以及媒体的关注。四十多年来,基于规则的符号AI方法一直占据主导地位。但基于实例、以统计分析为驱动的联结主义,作为另一种主要的AI方法,在20世纪50年代末和80年代末也曾短暂地风光一时,备受追捧。
在2012年联结主义复兴之前,AI的研究与开发主要由学术界推动。学术界的特点是教条盛行(所谓的「常规科学」),在符号主义AI和联结主义之间一直存在着非此即彼的选择。2019年,杰弗里·辛顿(Geoffrey Hinton)在图灵奖演讲中,大部分时间都在讲述他和少数深度学习爱好者在主流AI和机器学习学者手中所经历的艰难困苦。辛顿还特意贬低了强化学习以及他在DeepMind的同事们的工作。
仅仅几年之后,在2023年,DeepMind接管了谷歌的AI业务(辛顿也离开了那里),这主要是对OpenAI成功的回应,OpenAI也将强化学习作为其AI开发的一个组成部分。强化学习的两位先驱安德鲁·巴托(Andrew Barto)和理查德·萨顿(Richard Sutton)在2025年获得了图灵奖。
然而,目前没有迹象表明,无论是DeepMind还是OpenAI,抑或是众多致力于通用AI(AGI)的「独角兽」企业,它们关注的焦点超出当下盛行的大语言模型这一范式。自2012年以来,AI的发展重心已从学术界转向私营部门;然而,整个领域仍执着于单一的研究方向。
教训五:不要把所有的AI「鸡蛋」都放在同一个「篮子」里。
毫无疑问,黄仁勋是一位杰出的首席执行官,英伟达也是一家杰出的公司。十多年前,当AI的机遇突然出现时,英伟达迅速抓住了这一机遇,因为其芯片(最初是为高效渲染视频游戏而设计的)的并行处理能力非常适合深度学习计算。黄仁勋时刻保持警惕,他告诉员工:「我们公司距离破产只有30天。」
除了保持警惕(还记得英特尔吗?),AI 80年的发展历程所带来的经验教训或许也能帮助英伟达安然度过接下来的30天或30年的起伏。