研究发现:AI 越聪明就越有可能“胡编乱造”

2024-09-29 13:53:36

  一项新研究发现,随着大型语言模型变得越来越强大,它们似乎也越来越容易编造事实,而不是避免或拒绝回答它们无法回答的问题。这表明,这些更聪明的 AI 聊天机器人实际上变得不太可靠。

  该研究发表在研究发现,虽然这些 LLM 的回答在许多情况下变得更加准确,但总体上可靠性更差,给出错误答案的比例比旧模型更高。

  瓦伦西亚人工智能研究所在西班牙的研究员 José Hernández-Orallo 对测试中,这些模型被问及了从数学到地理等各种主题,并被要求执行诸如按指定顺序列出信息等任务。研究人员称,一些最大的“撒谎者”是 OpenAI 的 GPT-4 和 o1,但所有被研究的 LLM 似乎都呈这种趋势,对于 LLaMA 系列模型,没有一个能够达到 60% 的准确率,即使是最简单的问题。

  而当被要求判断聊天机器人的回答是准确还是不准确时,总之研究表明,AI 模型越大,它们给出错误答案的比例就越高。

  研究人员称,解决这些问题最简单的方法是让 LLM 不那么急于回答一切。Hernández-Orallo 称:“可以设置一个阈值,

下一篇:曾毓群:宁德时代电池工厂明年将全部成为“零
上一篇:比亚迪汉 L 路试谍照曝光,部分版本预计搭云辇
返回顶部小火箭