中国科学院科学家首次证实:大语言模型能像人
从中国科学院自动化研究所传统人工智能研究聚焦于物体识别准确率,却鲜少探讨模型是否真正“理解”物体含义。论文通讯
实验范式示意图。a,物体概念集及带有语言描述的图像示例。b-d,分别针对 LLM、MLLM 和人类的行为实验范式和概念嵌入空间。
研究人员从海量大模型行为数据中提取出 66 个“心智维度”,并为这些维度赋予了语义标签。研究发现,这些维度是高度可解释的,研究还对比了多个模型在行为选择模式上与人类的一致性。结果显示,多模态大模型在一致性方面表现更优。此外,研究还揭示了人类在做决策时更倾向于结合视觉特征和语义信息进行判断,而大模型则倾向于依赖语义标签和抽象概念。