MIT 新研究指出AI不懂“no”,逻辑推理缺陷导致否
麻省理工学院最新研究表明,人工智能在理解“no”和“not”等否定词方面仍存在明显缺陷,在医疗等关键领域可能引发严重风险。
研究表明,AI 已快速发展,具备诊断疾病、创作诗歌甚至驾驶汽车等多项实用技能,但对“no”和“not”等否定词,却束手无策。
在博士生 Kumail Alhamoud 的带领下,MIT 团队联合 OpenAI 和牛津大学,发现包括 ChatGPT、Gemini 和 Llama 在内的当前主流模型,研究报告认为,这种情况在医疗场景产生的潜在危害尤为明显。例如,AI 可能误解“no fracture”或“not enlarged”,导致严重后果。
援引博文介绍,问题的根源并非数据不足,这导致 AI 在面对“not good”时,Lagrange Labs 首席研究工程师 Franklin Delehelle 也表示,AI 擅长模仿训练数据中的模式,但缺乏创新或处理训练数据之外情境的能力。
研究团队通过合成否定数据尝试改进模型,取得初步成效,但细粒度的否定差异仍具挑战性。
Katanforoosh 警告,AI 对否定的误解不仅是一项技术缺陷,更可能在法律、医疗和人力资源等领域引发关键错误。他呼吁,解决之道不在于堆砌更多数据,
