本文节选自湛庐文化策划出版的《AI的25种可能》一书。作者朱迪亚·珀尔是一位计算机科学家,现任加州大学洛杉矶分校认知科学实验室主任。
作为一名前物理学家,我对控制论深感兴趣。尽管它未能完全发挥图灵机的所有潜力,但它具备高度透明的特点,这可能是因为它基于经典控制理论和信息理论构建。如今,深度学习已经继承了这种透明度。本质上,深度学习是一种曲线拟合问题,在输入输出链的中间层调整权重。
许多用户反映,深度学习工具确实好用,但他们并不清楚背后的原理。深度学习具有自身的动力学机制,一旦输入大量数据,它就能自行调整和优化,通常能给出正确结果。然而,当结果错误时,我们往往不清楚问题出在哪里,也不知道如何解决。尤其难以判断问题是出在程序设计上还是方法上,或者是外部环境变化所致。因此,我们应致力于寻找新的透明度。
有些人认为,透明度并非必要。我们并不完全理解人类大脑的神经结构,但它依然运作良好。同样,他们认为我们不必理解深度学习系统的工作原理,就可以利用它们实现智能化。从某种意义上讲,我认同这种观点。我不喜欢不透明的技术,但我明白深度学习在智能领域的重要性。即使不透明的系统也能出色完成任务,就像人类大脑一样。
然而,这种观点有其局限性。虽然我们不需要完全理解大脑的工作原理,因为人类大脑的运作原理相对统一,我们仍然可以通过交流、学习和指导来理解和运用它。但如果我们的机器像“阿尔法围棋”那样不透明,我们就难以与其进行有效的互动,这将是个遗憾。每次任务或环境发生变化,都需要重新训练这些机器。
因此,我没有使用这些不透明的系统进行实验,而是专注于了解它们的实际局限,并寻求克服这些局限的方法。我采用因果推理的方法,这是一种科学界常用的思考方式,能够通过直观的例子进行分析和监控。通过这种方法,我发现了某些根本性的障碍,除非我们解决这些问题,否则无法实现机器的全面智能化。我认为,理解这些障碍并加以克服至关重要。
当前的机器学习系统几乎完全依赖于统计方法或模型盲方法,这类似于将函数拟合到大量数据点上。这样的系统无法推理“如果……会怎么样?”的问题,因此不能作为强人工智能的基础。强人工智能旨在模拟人类的推理和能力。为了达到人类智能水平,学习系统需要一个蓝图的指引,类似于我们在陌生城市开车时使用的路线图。
更具体地说,当前的学习系统主要通过优化从环境中获取的感觉输入来提升性能。这是一个缓慢的过程,类似于达尔文进化论中的自然选择过程。它解释了鹰和蛇等物种在数百万年进化过程中如何拥有卓越的视力。但它无法解释快速进化的过程,例如人类在短短千年内发明眼镜和望远镜的能力。人类的独特之处在于我们能够创造和存储关于环境的心理表征,并能随意操纵这些表征,从而进行规划和学习。
历史学家如尤瓦尔·赫拉利和史蒂文·米森通常认为,人类祖先在4万年前能够统治全球的原因之一是他们拥有创造和存储心理表征的能力。他们可以反复探索这些表征,通过想象进行变形,从而回答“如果……会怎么样?”这样的问题。比如他们会问一些干预性问题:“如果我这么做,会怎么样?”或者一些回顾性问题:“如果我没有那样做,会怎么样?”目前没有任何学习系统能够回答这些问题。大多数学习系统不具备这样的表征能力,无法从中得出答案。
关于因果推理,我们发现对于任何形式的模型盲曲线拟合或统计推断,无论拟合过程多么复杂,所能做的事情都非常有限。我们还发现了组织这些局限的实际框架,这些框架构成了一个层级结构。
第一层是统计推理。统计推理可以告诉我们一件事如何影响我们对另一件事的看法。例如,某个症状可以告诉我们患了哪种疾病。
第二层是行动推理。第二层包含了第一层的内容,但第一层不包含第二层。第二层处理的是行动的影响。“如果我们提高价格会怎样?”“如果你让我笑了会怎样?”第二层需要干预信息,这些信息是第一层所缺乏的。这些信息可以通过概率图模型来编码,它仅仅告诉我们一个变量对另一个变量的影响。
第三层是反事实推理。这是科学家们使用的语言。“如果这个物体重两倍会怎样?”“如果我没有那样做会怎样?”“治愈我头痛的是阿司匹林还是刚睡了一觉?”反事实推理在感觉上是最高的层次,即使我们可以预测所有行动的结果,也无法得到反事实。它们需要一种额外的东西,以方程式的方式告诉我们一个变量在其他变量变化时的反应。
因果推理研究的一个显著成就是对干预和反事实的算法化,即对层级结构最高两层的算法化。换句话说,一旦我们将科学知识编码成模型(这个模型可以是定性的),就会存在检查模型的算法,无论查询是关于干预还是反事实,这种算法都可以根据可用数据估算是否有结果,以及如何得出结果。这一成就极大地改变了科学家们的研究方法,特别是在数据密集型科学领域,如社会学和流行病学,因果模型已经成为第二语言。这些学科将其语言视为“因果革命”。正如哈佛大学社会科学家加里·金所说:“在过去几十年里,人们对因果推理的理解,比以前所有学到的知识加起来还要多。”
当我思考机器学习的成功,并试图将其应用于未来的人工智能时,我问自己:“我们是否认识到了因果推理领域中的基本局限性?我们准备好绕过阻碍我们从一个层级升到另一个层级的实际障碍了吗?”
我认为机器学习是一种工具,使我们从研究数据过渡到研究概率。但是,要从概率过渡到实际理解,我们仍需迈出两步,非常大的两步。第一步是预测行动的结果,第二步是反事实推理。只有当我们迈出了最后两步,才能说我们真正理解了现实。
哲学家斯蒂芬·图尔敏在他的著作《前瞻和理解》(1961)中提出,透明性与不透明性之间的对比是理解古希腊与巴比伦科学之间古老竞争的关键。按照图尔敏的观点,巴比伦天文学家是做出黑箱预测的大师,在天文学观测的准确性和一致性方面远远超过他们的对手——希腊天文学家。然而,科学更青睐希腊天文学家富有创意的推测,这些推测大胆且充满隐喻:燃烧的圆管、透过小孔的天火被视为星星,以及半球形的地球骑在龟背上。正是这种大胆的建模策略,而非巴比伦的外推,震惊了埃拉托色尼,促使他进行了当时世界上最富创造力的实验之一——测量地球的周长。巴比伦的以数据为中心的科学家们永远也不会做这样的实验。
模型盲法给强人工智能执行的认知任务带来了内在限制。我认为,要实现人类水平的人工智能,不仅需要模型盲的学习机器,还需要数据和模型的共生合作。
数据科学只是一门有助于解释数据的科学,而解释数据是一个双向问题,将数据与现实联系起来。无论数据多么庞大,人们如何熟练地操控数据,数据本身并不是一门科学。不透明的学习系统可能会让我们回到巴比伦,但绝不会带我们到达雅典。
关于本书:
《AI的25种可能》这本书汇集了25位计算机科学家、心理学家、物理学家和科技史学家的前沿见解,为你带来一场关于人工智能多角度的深刻思考。关注这本书,因为AI的25种可能,就是人类未来的25种可能!
*本文已获湛庐文化的转载许可,禁止二次转载。