焦点
去年,微软的科技专家们启动了一个创新项目,挑战人工智能系统解决一个看似需要对物质世界有直观认知的问题。他们设定了一个场景:利用一本书、九枚鸡蛋、一台笔记本电脑、一个瓶子以及一根钉子,指导如何实现稳定堆叠。这一任务旨在考验AI在面对物理世界挑战时的能力。
令人惊讶的是,AI系统的创造性解决方案让研究人员目瞪口呆。其策略是:首先在书上排列鸡蛋成三行,确保留有足够的空间以防压碎鸡蛋;接着将笔记本电脑置于鸡蛋上方,屏幕朝下,键盘向上,利用其平整、坚固的表面作为下一层的稳定基础。
此建议不仅展示了AI的创新思维,也让人们开始思考AI是否正迈向通用人工智能(AGI)的前沿,即具备与人类大脑相媲美的广泛智能。今年3月,微软发表了长达155页的研究论文,坚信这一系统代表了向AGI迈进的重要一步。
微软,作为首个公开这一主张的大型科技企业,引发了科技界的热烈讨论:AI能否真正模仿人类智慧,抑或是科研人员的想象超出了实际?微软研究主管彼得·李对此表达了深切的疑虑与担忧,甚至产生了恐惧感。
微软的研究报告“通用人工智能的火花”揭示了技术专家长期以来关注的核心问题:如果创造出能够像人类大脑一样运作,甚至超越其能力的机器,将会彻底改变世界,同时也可能带来不可预测的风险。
尽管存在质疑之声,但近一年来,业界确实在探索一条前所未有的道路——AI系统开始提供与人类相似的见解与答案,这些答案并非源自预设程序。微软已整合多个研究团队,专注于这一想法的深入探索。
过去五年间,包括谷歌、微软与OpenAI在内的公司共同开发了大型语言模型(LLM),这类模型通过分析海量文本数据(如书籍、维基百科及聊天记录),识别文本模式,进而自动生成文本,涵盖学期论文、诗歌、代码编写乃至与人类对话。
微软采用OpenAI的GPT-4技术,其被认为是最强大的模型之一,且与OpenAI保持着紧密合作。由38岁的法国裔前普林斯顿大学教授塞巴斯蒂安·布贝克领导的研究团队,首次尝试让GPT-4生成数学证明,证明存在无限多个素数。这一壮举不仅震撼了学术界,也让布贝克本人难以置信。
团队持续记录着GPT-4展现出的复杂行为,认为其体现了对人类概念和技能“深刻而灵活的理解”。彼得·李指出,用户在使用GPT-4时,对其生成文本的能力感到惊讶,但在分析、综合、评估和判断文本方面,其表现更为出色。
例如,系统能够使用名为TiKZ的编程语言绘制出独角兽,并在删除相关代码后,成功修改程序以再次绘制独角兽。系统还能编写程序,根据个体的年龄、性别、体重、身高和血液测试结果,评估其患糖尿病的风险,或以苏格拉底的口吻撰写一篇关于LLM潜在滥用及其风险的论文。
这些案例显示了系统对政治、物理、历史、计算机科学、医学和哲学等多领域知识的综合运用,似乎能够结合所学知识解决问题。然而,AI专家们对于微软论文的动机持有不同看法,有人认为这是一种试图夸大未完全理解技术的公关策略。
尽管如此,布贝克教授与彼得·李坚持认为,描述系统行为的术语尚待明确,最终选择“通用人工智能的火花”一词,以激发更多研究者的兴趣与想象力。
值得注意的是,微软在测试的GPT-4早期版本未进行针对性微调,以防止产生仇恨言论、错误信息或其他不适当内容,故论文中提及的观点尚未得到独立专家的验证。微软表示,面向公众的产品功能与内部测试版本存在差异。
有时,GPT-4显示出模仿人类推理的迹象,但也有时表现得较为迟缓,其行为并不总是连贯一致。加州大学伯克利分校人工智能研究小组成员、心理学教授艾莉森·戈普尼克认为,虽然这类系统强大,但目前尚不清楚生成的文本是基于人类推理还是常识的简单组合。
戈普尼克博士强调,将人工智能与人类进行不间断比较并非恰当的思考方式。她提醒,观察复杂系统时,倾向于将其人格化,但这并不是衡量AI能力的正确途径。