研究人员至今未能完全解析通过互联网文本训练的AI模型在执行复杂任务时的运作原理,尤其是涉及代码运行、游戏竞技乃至人际关系挑战。ChatGPT与同类AI的影响力未明,原因之一在于它们内部工作机理的不透明性。这些系统的某些能力超越了训练范畴,连其开发者也感到困惑。
布朗大学的Ellie Pavlick是致力于揭开AI模型秘密的科学家之一,她指出:“若要改进、确保安全或实现其他目标,我们需要理解它们的工作机制,否则这在我看来是荒谬的。”研究人员如Pavlick和同事,对GPT(生成式预训练转换器)及其他大型语言模型(LLM)有基本理解,这些模型基于神经网络,这类系统能够模仿人类大脑的结构。尽管模型的源代码相对简单,它们通过统计分析互联网文本构建自动修正算法,并在对话形式下呈现结果,这本质上是对过往知识的回顾。
圣达菲研究所的AI研究员Melanie Mitchell提到,AI系统展现出的能力“超出了我们的预期,甚至是那些对其持怀疑态度的研究人员也感到惊讶”。这些模型不仅通过了律师资格考试,还能创作诗歌,甚至尝试影响婚姻关系,这与它们直接模仿文本的初衷相去甚远。
AI模型在未经特定训练的情况下执行任务,展现出“新出现的能力”,这令包括批评者在内的研究人员感到震撼。AI系统似乎构建了对现实世界的模型,尽管它们的技术基础与人类大脑不同。AI模型能够执行如编写计算机代码等任务,这虽令人印象深刻,但更令人惊讶的是它们如何独立思考并解决复杂问题。
在一次会议上,Raphaël Millière展示了GPT能够执行编程任务,这表明AI模型内部拥有某种形式的计算能力,能够通过自我推导解决问题,而非单纯模仿互联网上的代码。这揭示了AI模型内在复杂性超越了表面的统计分析,它们对学习的知识有着真正的理解。
AI模型不仅能够从文本中提取深层含义,还能即时学习。这种能力,通常被认为是人类独有的,现在AI也展现出类似的特性。AI模型在面对用户提问时能够学习,这种上下文学习让它们能够更好地理解和回应复杂的请求。
虽然AI模型仍存在诸多局限,不足以达到通用人工智能(AGI)的水平,但这些新出现的能力促使部分研究人员认为,科技公司距离实现AGI的目标比之前预计的更为接近。AI模型与插件的结合被视为通往更专业化功能的途径。
然而,研究人员对于AI模型的不透明性表示担忧,这不仅影响了科学界的探索,也可能阻碍社会对AI技术潜在影响的理解。确保AI模型的透明度被认为是保障其安全性的关键因素。
AI模型在执行复杂任务时展现出的非凡能力,以及它们内部工作的神秘性,构成了当前研究的焦点与挑战。随着科技的发展,对AI模型的理解和应用将持续深化,同时也需关注其潜在的社会影响,确保技术的健康发展与合理应用。