第二次AI寒冬

1980年代中期,专家系统曾带来AI的复兴,但好景不长。1987年开始,随着Lisp机器市场崩溃和专家系统局限暴露,AI再次进入低谷。这次寒冬持续到1993年,直到机器学习和统计方法带来转机。

时间跨度:1987-1993·阅读时间:约10分钟

寒冬背景

短暂的复兴

1980年代初期,AI似乎迎来了春天:

  • 专家系统商业化成功
  • 日本启动第五代计算机项目
  • 风险投资涌入AI领域
  • Lisp机器公司股价飙升

过度投资

但是,投资热度过高:

  • 数十亿美元投入专家系统开发
  • Lisp机器公司估值过高
  • 市场预期远超实际需求
  • 许多项目缺乏商业可行性

技术局限

专家系统的根本问题开始显现:

  • 维护成本高昂
  • 知识更新困难
  • 处理不确定性能力弱
  • 无法应对意外情况

专家系统热潮

商业化浪潮

1980年代,专家系统成为AI商业化最成功的方向:

  • XCON:为DEC配置计算机系统,每年节省数千万美元
  • DENDRAL:化学分子结构推断
  • PROSPECTOR:矿藏勘探
  • 医疗诊断系统

Lisp机器时代

专门的AI硬件成为热门:

  • Symbolics、Lisp Machines Inc等公司
  • 专用的Lisp工作站
  • 单机价格高达10万美元以上
  • 被大公司和研究机构购买

日本第五代计算机

1982年,日本启动第五代计算机项目:

  • 目标:创造能进行自然语言对话、推理、学习的计算机
  • 预算:4亿美元
  • 引发美国和欧洲的竞争反应
  • 最终未能实现目标,1992年结束

企业投资

大公司纷纷建立AI部门:

  • IBM、DEC、HP等
  • 建立内部AI研究组
  • 开发企业级专家系统
  • 投资AI初创公司

泡沫破裂

触发因素

1987年,多个因素同时出现:

  • PC性能提升:通用PC开始能运行AI软件
  • Lisp机器市场崩溃:专用硬件失去市场
  • 专家系统局限:难以维护和扩展
  • 预算削减:企业缩减AI投资

Lisp机器崩溃

专用AI硬件市场迅速消失:

  • Symbolics股票从高点跌至几分钱
  • 多家Lisp机器公司破产
  • 通用Unix工作站取代专用硬件
  • 大量硬件投资化为乌有

专家系统困境

专家系统暴露出根本问题:

知识获取瓶颈

从专家提取知识极其耗时,维护知识库成本高昂。

脆弱性

遇到规则外情况就崩溃,无法处理不确定性。

维护困难

规则之间相互影响,修改一条规则可能影响整个系统。

投资撤离

  • 风险投资几乎消失
  • 企业AI部门被裁撤
  • 大学AI项目减少
  • AI再次成为贬义词

神经网络复兴

黑暗中的光芒

在寒冬期间,一些重要进展在悄悄发生:

  • 1982年:Hopfield网络提出
  • 1986年:反向传播算法重新发现和推广
  • 1989年:LeCun的卷积神经网络

PDP革命

1986年,Rumelhart、Hinton和Williams出版了《并行分布式处理》:

  • 重新引入连接主义范式
  • 展示了神经网络的学习能力
  • 挑战了符号主义的主导地位
  • 为后来的深度学习奠定基础

统计方法兴起

同时,统计方法开始主导NLP等领域:

  • 概率模型取代规则系统
  • 基于数据的学习方法
  • 更robust的处理方式
  • 实际效果优于纯符号方法

寒冬结束

转折点

1993年前后,AI开始走出寒冬:

  • 机器学习成为主流方向
  • 统计方法广泛应用于NLP、语音识别
  • 互联网带来海量数据
  • 计算能力持续提升

范式转变

AI研究范式发生了根本转变:

维度旧范式新范式
方法规则、符号统计、学习
知识来源专家编码数据驱动
系统特点脆弱、精确鲁棒、概率
目标完美模拟人类解决实际问题

新方向

AI研究转向更务实的方向:

  • 机器学习和数据挖掘
  • 信息检索和推荐系统
  • 语音识别和合成
  • 计算机视觉应用

历史启示

避免重蹈覆辙

  • 不要过度炒作技术能力
  • 硬件和软件需要协调发展
  • 实际应用价值是生存关键
  • 保持技术路线的多样性

持续的重要性

即使在寒冬,坚持的研究也在积累:

  • Hinton坚持神经网络研究40年
  • LeCun坚持卷积网络研究
  • Bengio坚持深度学习研究
  • 三人于2018年获图灵奖

对今天的警示

当前AI热潮中,需要警惕:

  • 避免过度承诺
  • 关注实际价值
  • 保持长期投入
  • 重视基础研究
----