第一次AI寒冬
1974年开始,AI研究进入了第一个低谷期。过度乐观的承诺未能兑现,资金大幅削减,研究者纷纷离开。这个被称为"AI寒冬"的时期,促使人们反思AI的根本问题。
时间跨度:1974-1980·阅读时间:约10分钟
寒冬背景
过度乐观的承诺
1960年代,AI先驱们做出了大胆预测:
- 西蒙(1965):"20年内机器将能做人能做的一切"
- 明斯基(1967):"一代人之内...创造'人工智能'的问题将基本解决"
这些预测与现实相去甚远,损害了AI的可信度。
早期成果的局限
虽然有ELIZA、SHRDLU等程序,但:
- 只能在"玩具"问题上工作
- 无法扩展到真实世界
- 缺乏真正的理解能力
- 需要大量人工编码规则
经济与政治因素
1970年代初的经济环境也影响了AI:
- 石油危机导致经济衰退
- 政府预算紧缩
- 基础研究资助减少
- 要求研究有实际应用价值
主要原因
技术瓶颈
组合爆炸
搜索问题的复杂度随规模指数增长。简单的棋类程序可以工作,但现实问题太大。
常识问题
机器缺乏日常生活的背景知识,难以理解普通文本和对话。
知识获取瓶颈
从专家提取知识并编码成规则极其耗时耗力,且容易出错。
硬件限制
当时的计算机算力和存储都无法支撑复杂的AI系统。
理论缺陷
- 莫拉维克悖论:让计算机做高等数学容易,做简单感知反而困难
- 框架问题:难以确定行动会影响哪些知识
- 符号接地问题:符号如何与现实世界联系起来
期望落差
资助机构期望看到实际应用,但AI研究者:
- 专注于理论研究
- 使用人工设计的小问题
- 缺乏工程化思维
- 过度宣传潜在价值
Lighthill报告
报告背景
1973年,英国科学研究委员会委托James Lighthill爵士评估AI研究。这份报告对AI造成了重大打击。
主要批评
Lighthill将AI研究分为三类:
- 高级AI(General AI):创造完全智能的机器——认为不切实际
- 中级AI(Applied AI):特定领域的智能应用——认为进展有限
- 低级AI(Cybernetics):控制论和自动化——认为与AI无关
他的结论是:高级AI是不切实际的幻想,中级AI的成果有限,AI研究的价值被高估。
电视辩论
1973年,BBC播出了一场著名的辩论:
- Lighthill对阵麦卡锡、米基等AI研究者
- Lighthill指出AI无法解决实际问题
- AI研究者无法有效反驳
- 公众对AI的信心动摇
报告后果
Lighthill报告直接导致:
- 英国几乎停止了所有AI资助
- 其他欧洲国家效仿
- 美国DARPA也大幅削减AI预算
- "AI寒冬"正式降临
影响与后果
资助削减
- DARPA的语音理解项目被取消
- 其他AI项目资助大幅减少
- 大学AI研究组解散或萎缩
- 商业AI公司倒闭
人员流失
大量AI研究者:
- 转向其他计算机科学领域
- 进入工业界从事非AI工作
- 彻底离开学术界
声誉损害
- "人工智能"成为贬义词
- 研究者不愿使用AI标签
- 相关研究改称"知识工程"、"模式识别"等
- 申请资助时刻意避免AI术语
研究转向
剩余的AI研究转向更实际的方向:
- 专家系统在特定领域应用
- 模式识别和机器视觉
- 自然语言处理的实用方法
- 神经网络在小规模数据上的研究
坚持的研究
幸存的研究方向
即使在寒冬期间,一些研究仍在继续:
- 专家系统:在医疗、地质等领域取得实际应用
- Prolog语言:在欧洲发展逻辑编程
- 日本第五代计算机:虽然最终失败,但带动了研究
- 机器学习:早期算法在悄悄发展
反思与调整
寒冬促使研究者反思:
- 更加务实的期望设定
- 关注具体问题而非通用智能
- 重视知识表示和学习
- 强调实际应用价值
种子的播撒
一些重要进展在寒冬中孕育:
- 反向传播算法的改进(1974-1986)
- 专家系统的商业化
- 认知科学与AI的结合
- 机器学习的基础研究
历史教训
避免过度承诺
最大的教训是:
不要承诺你无法兑现的结果
过度宣传短期损害信誉,长期伤害整个领域。
务实的态度
- 关注可解决的具体问题
- 设定可实现的目标
- 展示实际成果而非概念
- 承认技术的局限性
对现代AI的启示
- 避免炒作和过度宣传
- 建立合理的公众期望
- 关注可落地的应用
- 持续的基础研究投资