欧易

欧易(OKX)

国内用户最喜爱的合约交易所

火币

火币(HTX )

全球知名的比特币交易所

币安

币安(Binance)

全球用户最多的交易所

人工智能65年简史:从麦卡锡到Hinton,人类追求的AI究竟是什么?

2023-02-06 12:21:10 402

摘要:来源:IEEE Spectrum编辑:LRS【新智元导读】人工智能的发展已有65年的历史,曾经历过寒冬,也经历过辉煌。从符号主义的专家系统到现在所向披靡的神经网络,不少人担心是否寒冬会再来,也有乐观的人表示人工智能的春天也要来了。回到人工智...

来源:IEEE Spectrum

编辑:LRS

【新智元导读】人工智能的发展已有65年的历史,曾经历过寒冬,也经历过辉煌。从符号主义的专家系统到现在所向披靡的神经网络,不少人担心是否寒冬会再来,也有乐观的人表示人工智能的春天也要来了。回到人工智能发展的开端,也许会有答案。


1956年夏天,一群数学家和计算机科学家占领了达特茅斯学院数学系所在大楼的顶层。在大约八周的时间里,他们想象着一个新研究领域的可能性。


约翰-麦卡锡(John McCarthy)是当时是达特茅斯大学的一名年轻教授,他在为研讨会写提案时创造了「人工智能」一词,他说研讨会将探索这样的假设:


「(人类)学习的每一个方面或智能的任何其他特征原则上都可以被精确描述,以至于可以用机器来模拟它。」



在那次传奇性的会议上,研究人员大致勾勒出了我们今天所知的人工智能。它催生了第一个研究者阵营:「符号主义者」(symbolists),基于符号主义的专家系统在20世纪80年代达到了顶峰。


会议之后的几年里,还出现了「连接主义者」(connectionists),他们在人工神经网络上苦苦钻研了几十年,直到最近才开始再创辉煌。


这两种方法长期以来被认为是相互排斥的,研究人员之间对资金的竞争造成了敌意,每一方都认为自己是在通往人工通用智能的道路上。



但回顾自那次会议以来的几十年,数次人工智能寒冬都让研究人员的希望经常破灭。在今天,即使人工智能正在彻底改变行业并可能要颠覆全球劳动力市场,许多专家仍然想知道今天的人工智能是否已经达到极限。


正如 Charles Choi 在「人工智能失败的七种方式」中所描绘的那样,当今深度学习系统的弱点正变得越来越明显,然而研究人员几乎没有危机感。他认为也许在不远的将来可能会迎来另一个人工智能冬天, 但这也可能是受启发的工程师最终将我们带入机器思维的永恒之夏的时候。


开发符号人工智能的研究人员的目的是明确地向计算机教授世界知识。他们的宗旨认为知识可以由一组规则表示,计算机程序可以使用逻辑来操纵这些知识。符号主义者的先驱如纽厄尔和赫伯特西蒙认为,如果一个符号系统有足够的结构化事实和前提,那么聚合的结果最终会产生通用的智能。



另一方面,连接主义者受到生物学的启发,致力于「人工神经网络」的研发,这种网络可以接收信息并自行理解。


一个开创性的例子是感知机,这是一种由康奈尔大学心理学家弗兰克罗森布拉特在美国海军资助下建造的实验机器。它有 400 个光传感器共同充当视网膜,向大约 1,000 个神经元提供信息,这些神经元能够进行处理并产生单个输出。1958 年,《纽约时报》的一篇文章援引罗森布拉特的话说,“机器将成为第一个像人脑一样思考的设备”。



肆无忌惮的乐观鼓励美国和英国的政府机构将资金投入研究。1967 年,麻省理工学院教授、人工智能之父马文·明斯基甚至写道:“在一代人之内……创造‘人工智能’的问题将得到实质性解决。”


然而不久之后,政府资金开始枯竭,原因是人工智能研究除了炒作外没有任何实质性的进展没有辜负它自己的炒作。1970 年代见证了第一个人工智能冬天。


然而,真正的人工智能研究者没有放弃。


到 1980 年代初,符号主义 AI 的研究人员带来了鼎盛时期,他们因特定学科(如法律或医学)知识的专家系统而获得资助。投资者希望这些系统能很快找到商业应用。



最著名的符号人工智能项目始于 1984 年,当时研究人员道格拉斯·莱纳特 (Douglas Lenat) 开始着手一项名为 Cyc 的项目,该项目旨在将常识编码到机器中。


直到今天,Lenat 和他的团队还在继续向 Cyc 的本体添加术语(事实和概念),并通过规则解释它们之间的关系。到 2017 年,该团队有 150 万个条款和 2450 万条规则。然而,Cyc 离实现通用智能还差得很远。


20世纪80年代末,商业的寒风带来了第二个人工智能冬天。专家系统市场的全面崩溃是因为它们需要专门的硬件,无法与越来越通用的台式计算机竞争。到了20世纪90年代,研究符号人工智能或神经网络在学术上已不再流行,因为这两种策略似乎都失败了。


但是,取代专家系统的廉价计算机对连接主义者来说是一个福音,他们突然获得了足够的计算机能力来运行具有多层人工神经元的神经网络。这类系统被称为深度神经网络,它们实现的方法被称为深度学习。


多伦多大学的Geoffrey Hinton 实现了一种叫做反向传播的原理来让神经网络从他们的错误中学习。



Hinton 的一位博士后 Yann LeCun 于 1988 年进入 AT&T 贝尔实验室,在那里他和一位名叫 Yoshua Bengio 的博士后使用神经网络进行光学字符识别;美国银行很快就采用了这种技术来处理支票。



Hinton、LeCun 和 Bengio 于 2019 年获得图灵奖。



但是神经网络的拥护者仍然面临一个大问题:他们的理论框架逐渐拥有越来越多的计算能力,但是世界上没有足够的数据来供他们训练模型,至少对于大多数应用程序来说是这样,人工智能的春天还没有到来。


但在过去的二十年里,一切都变了。


尤其是随着互联网蓬勃发展,突然间,数据无处不在。


数码相机和智能手机在互联网上发布图像,维基百科和 Reddit 等网站充满了可免费访问的数字文本,YouTube 有大量视频。足够的数据也是训练神经网络的基础。


另一个重大发展来自游戏行业。Nvidia 等公司开发了称为图形处理单元 (GPU) 的芯片,用于在视频游戏中渲染图像所