中国科学院科学家首次证实:大语言模型能像人类一样“理解”事物
作者头像
  • ghexpo
  • 2025-06-11 09:28:02 118

图灵汇报道,近期中国科学院自动化研究所的神经计算与脑机交互课题组与中国科学院脑科学与智能技术卓越创新中心的研究团队合作,利用行为实验和神经影像分析的方法,首次确认多模态大语言模型能够自发形成与人类极为相似的物体概念体系。这项研究不仅为人工智能的认知科学领域带来了新的视角,也为开发具有类人认知能力的人工智能系统提供了理论支持。相关成果已发表在《自然・机器智能》期刊上,标题为《多模态大语言模型中自然出现的人类物体概念表示》。

在这项研究中,科学家们发现,人类能够将自然界中的物体概念化,这是人类智能的关键部分。无论是“狗”、“汽车”还是“苹果”,我们不仅能辨认它们的颜色、形状等物理特性,还能理解它们的功能、情感价值以及文化意义。这些多层次的概念构成了人类认知的基础。

传统的AI研究更多关注物体识别的准确性,很少涉及模型是否真正理解物体的意义。对此,论文的通讯作者何晖光研究员认为:“目前的AI可以区分猫和狗的照片,但这种识别方式与人类对猫狗本质的理解差异仍需进一步探索。”研究团队依据认知神经科学的基本理论,提出了一种结合计算建模、行为实验和脑科学的新方法。他们使用认知心理学中的“三选一异类识别任务”,让大模型与人类从由1854种日常概念组成的三元组中挑选出最不相关的选项,最终分析了470万次行为判断的数据,绘制出了AI大模型的概念图谱。

研究者从大量模型行为数据中提炼出66个“心理维度”,并对这些维度进行了语义标注。研究显示,这些维度不仅易于理解,而且与大脑特定区域的神经活动模式密切相关,例如负责处理人脸的FFA、处理场景的PPA以及处理身体部位的EBA。

此外,研究对比了不同模型在行为选择上的与人类的匹配程度,发现多模态大语言模型,比如GeminiProVision和Qwen2_VL,在这一指标上表现更为出色。同时,研究也表明,人类在做决定时更倾向于结合视觉特征和语义信息,而大模型则更依赖于语义标签和抽象概念。这表明,大语言模型并非简单的“模仿者”,而是具备类似人类理解现实世界概念的能力。

    本文来源:图灵汇
责任编辑: : ghexpo
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
中国科学院科学家模型事物证实理解人类一样语言
    下一篇