研究揭示 AI 对话方面的缺陷:不知道何时该插话
图夫茨大学的研究人员发现,大型语言模型在对话中的“插话”方面普遍表现不佳,这限制了它们的对话能力。
据了解,2024 年 11 月 12 日至 16 日在迈阿密举行的自然语言处理经验方法会议上,图夫茨大学的语言学和计算机科学研究人员将介绍一项研究,该研究揭示了人工智能对话能力的不足之处,并指出了改进其对话能力的可能途径。这项研究结果已发表在 arXiv 预印本服务器上。
长期以来,人们认为对话中的“副语言”信息 —— 语调、单词和短语的延长、停顿和一些相反,如果只以单调的语音提供语言内容,研究对象将在其中找到大部分与自然语音中相同的 TRP。这表明,人工智能擅长检测内容中的模式,但无法以接近人类的能力检测到合适的 TRP。
原因在于 AI 的训练数据。大型语言模型,包括最先进的 ChatGPT,研究人员认为,可以通过对基于书面内容训练的大型语言模型进行微调,并用一小组对话内容进行额外训练,使其能够更自然地参与新的对话。然而,当他们尝试这样做时,发现仍然存在一些限制,无法完全人类般的对话。
研究人员警告称,AI 进行自然对话可能存在根本性的限制。它们是基于肤浅的统计相关性来预测下一个单词,但轮流发言涉及到从对话更深层次的语境中汲取信息,也就是说,研究人员表示,可以通过对大型语言模型进行预训练,使其在更大规模的自然口语语料库上进行训练,从而克服这些限制。然而,收集如此规模的数据来训练今天的 AI 模型仍然是一个重大挑战。与互联网上的书面内容相比,可用的对话录音和转录数量要少得多。