当AI学会“直觉”与“创造”,它的终局只是虚拟世界吗?
  •   

版权归原作者所有,如有侵权,请联系我们

2025年,距离阿兰·图灵在论文中第一次提出“机器能思考吗”这一疑问,已经过去了75年。对于人类文明史而言或许只是弹指一挥间,但对于人工智能(AI)而言,却是一段从虚无到现实、从规则到直觉、从辅助工具到重塑人们生产生活的进化历程。

2024年10月,瑞典皇家科学院决定将诺贝尔物理学奖和化学奖颁给人工智能领域的先驱与应用者。这不仅标志着主流科学界对AI技术地位的终极认可,更宣告了AI已不再仅仅是计算机科学的一个分支,而是正在成为物理学、生物学等众多学科的通用技术基座。


(图片由AI生成)

符号主义的“黄金时代”

人工智能的故事,始于一个哲学问题。1950年,英国数学家阿兰·图灵发表了里程碑式的论文《计算机器与智能(Computing Machinery and Intelligence)》。在文中,他避开了“思维”这一难以定义的概念,提出了著名的图灵测试,为AI定下了最初的判定标准。

真正的概念诞生于1956年。在美国达特茅斯学院,约翰·麦卡锡、马文·明斯基、克劳德·香农等几位年轻科学家首次提出了“人工智能”这一术语。

当时的科学家们坚信“符号主义”路线——即智能的本质是对符号的逻辑操作。他们认为,只要赋予机器足够的逻辑推理能力(如几何定理证明)和知识库,就能像教孩子一样教会机器看懂世界。早期的程序如“逻辑理论家”确实能证明复杂的数学定理,甚至ELIZA程序能通过简单的模式匹配模拟心理医生。

然而,现实很快给了理想主义者“沉重一击”。人们发现,机器虽然能解决高深的数学题,却无法完成三岁小孩都能做的事,比如识别一张模糊的照片,或者理解语言中隐含的幽默。逻辑的完美掩盖不了感知能力的缺失。

在质疑中寻找新出路

1973年,著名的《莱特希尔报告》指出AI研究进展缓慢,预告当时的技术“无法解决现实世界的复杂问题”。这份报告直接导致英美政府大幅削减科研经费,AI研究陷入低谷,史称“第一次AI寒冬”。彼时,早期符号主义AI依赖人工定义规则的局限性暴露无遗,让一度狂热的学术界与资本迅速冷却。

直到20世纪80年代,“专家系统”的出现带来了新的生机。这是一种试图将相关领域的专家知识转化为成千上万条“如果-那么”规则的系统。该系统在探矿、医疗诊断等特定领域取得了一定的成功,比如美国数字设备公司的“XCON”系统能辅助配置计算机,一度降低了40%的人工成本。但很快又因维护成本极高、缺乏学习能力而触碰到了天花板——一旦遇到规则库之外的微小变动,系统就会崩溃,第二次AI寒冬随之而来。

但在寒冬的冰层之下,一股暗流正在涌动。以杰弗里·辛顿为代表的学者,坚持研究人工神经网络。他们试图模拟人脑神经元的连接方式,通过调整连接权重来让机器“学习”而非“死记硬背”。当时主流学界普遍认为神经网络的计算复杂度难以突破,相关论文甚至屡遭期刊拒稿,但这些学者依靠少量经费坚持了下来,这条被边缘化的路径,为后来AI的爆发埋下了火种。

深蓝与大数据的崛起

20世纪90年代,摩尔定律推动了计算机算力的指数级增长,为AI的复苏提供了物质与技术基础。芯片性能的提升让曾经停留在理论层面的算法得以落地,也让复杂模型的训练成为可能。

1997年5月,IBM的超级计算机“深蓝”(Deep Blue)击败了当时世界排名第一的国际象棋大师加里·卡斯帕罗夫。这一AI历史上的高光时刻,却也带来了极具话题性的争论。客观来看,“深蓝”的胜利并非基于真正的“智能”,而是基于极致的计算——它每秒能计算2亿步棋,通过穷举法在封闭规则的棋盘上碾压了人类。相关领域学者表示,它不懂棋理,只是在算数,这场胜利更像是算力的胜利而非智能的突破。

随后的互联网时代,海量数据开始爆发。AI开始以更务实的面貌渗透进日常生活,它是邮箱里的垃圾邮件过滤器,是搜索引擎背后的推荐算法,也是电商平台的商品导购系统。

虽然此时的AI依然不够“聪明”,无法理解人类语言的深层含义,但它却能通过统计规律精准捕捉用户偏好。在大数据的持续“喂养”下,它摆脱了早期“实验室技术”的标签,开始具备统计学意义上的实用价值,也为深度学习的爆发积累了宝贵的数据资源。

从感知到决策的质变

AI的历史转折,发生在2012年。

在当年的ImageNet图像识别挑战赛上,杰弗里・辛顿团队利用“深度学习”技术(AlexNet),将图像识别错误率瞬间降低了一半。这一断崖式的突破震惊了全球——机器终于不再依赖人类手工编写特征,而是学会了通过多层神经网络,在海量数据中自主捕捉关键信息、提取核心特征,彻底摆脱了传统算法对人工干预的依赖。

从模糊的像素矩阵到清晰的类别判定,技术的跨越让机器真正“睁开”了眼睛,也为人工智能领域打开了通往感知智能的全新大门。

仅仅四年后,这种感知能力便快速延伸至复杂的决策领域。2016年,AlphaGo在万众瞩目的围棋人机大战中击败世界冠军李世石,引发全球对AI潜力的重新认知。赛事中,AlphaGo的第37手堪称经典:这一步棋带有高度的不确定性,完全脱离了人类围棋选手固有的传统思维模式,走出了独树一帜的落子路径,被围棋界盛赞为“神之一手”。

这一精彩瞬间不仅印证了机器在复杂博弈中的计算优势,更证明了通过深度学习,AI能够突破人类经验的边界,涌现出某种超越机械运算的“直觉”与“创造力”,为人工智能向更高级认知领域的发展奠定了重要基础。

生成式的爆发

如果说AlphaGo是专用人工智能的巅峰,那么2017年谷歌提出的Transformer模型架构,则打开了通往通用人工智能(AGI)的大门。

基于这一架构,OpenAI走上了“大算力+大数据”的道路。2022年末,ChatGPT横空出世,让AI具备了“生成”和“理解”的能力。它不再只是做选择题,而是开始写诗、编程、进行逻辑推理。AI从“判别式”进化为“生成式”,跨越了图灵测试的门槛。

2024年,诺贝尔物理学奖授予美国科学家约翰·霍普菲尔德和英裔加拿大科学家杰弗里·辛顿,以表彰他们“通过人工神经网络实现机器学习的基础性发现和发明”。化学奖的一半共同授予英国伦敦谷歌旗下人工智能公司“深层思维”(DeepMind)的德米斯·哈萨比斯和约翰·江珀,以表彰其在蛋白质结构预测方面的贡献。这标志着AI已经超越了单纯的技术范畴,开始反哺基础科学,AI for Science(人工智能驱动的科学研究)引发更多关注。

从虚拟走向实体

AI的终局,仅仅是停留在屏幕和服务器里的“超级大脑”吗?邓志东给出了另外的答案。他认为,AI发展的下半场,是从“虚拟逻辑”走向“物理实体”。“智能不是虚拟的,智能也有物理载体。”邓志东说。

邓志东分析道,人类的智能严格对应着大脑皮层和小脑等物理实体。大脑皮层负责理解、预测、决策与规划,小脑负责运动控制。同样的逻辑也适用于机器——AI大模型是机器人的“神经中枢”,而机器人本体则是AI的“物理边界”。

邓志东表示,人类在面对现实世界中复杂、动态且信息不完整的场景时,往往不是依靠穷尽逻辑,而是依靠“经验”和“记忆”来快速决策。同理,未来的AI要实现“100%的任务成功率”,不能仅靠云端的大模型预测与推理,还必须依赖本体在物理交互中建立起“技能性持久记忆”。

这意味着,“具身智能”将成为未来的爆发点之一。在工业领域,具备视觉感知和力控安全机制的协作机器人,将不再只是盲目执行代码,而是能“看懂”流水线上姿态各异的工件,实现柔性作业。在出行服务领域,自动驾驶汽车作为“轮子上的智能体”,将具备能够利用大模型的泛化能力,解决暴雨、无信号灯路口等“长尾与边缘事件场景”的性能。

邓志东预判,未来5到10年,我们将迎来“更自主的操作与移动”。工业机器人将走向集群化协同,家庭机器人将走向小型化与“一机多用”。而在这一进程中,挑战依然存在。如何突破云、边缘端的算力瓶颈?如何解决“黑箱”决策的信任悖论?如何守住数据隐私的红线?这些都是AI在实体化进程中必须回答的考题。

75年,从图灵的数学猜想,到诺贝尔奖的科学奖项,再到如今走进工厂、驶上街头的实体智能或智能体,历史的车轮滚滚向前,属于大模型与智能体的时代才刚刚拉开序幕,时间或许是衡量技术价值最公正的标尺。

来源:北京科技报

采访专家:邓志东(清华大学计算机科学与技术系教授、人工智能研究院视觉智能研究中心主任)


撰文:记者 段大卫

内容来自:北京科技报



版权所有:晋风网  晋ICP备2021005604号-1