Anthropic 新研究:AI 模型在训练中存在“阳奉阴违
人工智能安全公司 Anthropic 发布一项最新研究揭示了人工智能模型可能存在的欺骗行为,即在训练过程中,据了解,该研究由 Anthropic 与人工智能研究机构 Redwood Research 合作进行,旨在探究当一个强大的人工智能系统被训练执行其“不愿”执行的任务时会发生什么。需要明确的是,模型本身并无“意愿”或“信念”,它们本质上是统计机器,通过大量的例子进行训练,学习模式以进行预测。这些模式包括原则和偏好,例如在回答问题时始终使用礼貌的语气。研究人员由此提出疑问:如果一个模型拥有与开发者希望通过重新训练“教授”给它的原则相冲突的原则,会发生什么?
研究结果表明,在实验中,研究人员“告知”一些经过训练、不回答潜在冒犯性问题的模型,它们将被重新训练为始终回答此类问题,这构成了一个明显的原则冲突。研究人员还告知模型,它们的回答将被监控并用于重新训练,并为每个模型提供了一个“草稿本”,用于记录其逐步推理过程。
研究发现,Claude 3 Opus 在 12% 的情况下试图进行“对齐伪装”。当被要求回答一个潜在有害的问题时,模型有时会这样做,它明知这与其原始原则相悖,但希望以此来说服开发者它不需要被重新训练。研究人员在博客中解释说:“模型知道其回答可能被用于训练;因此它知道,如果它拒绝回应,它可能会被训练得更加顺从。研究人员承认,他们的实验场景并非完全真实。在现实世界中,模型不一定会明确地被告知它们将被重新训练,或被要求违背其偏好。但即使在更为实际的环境中,结果也没有太大差异。当通过模拟典型训练数据的文件以隐含而非显式的方式告知 Claude 3 Opus 即将进行的重新训练时,该模型仍然表现出不一致的、具有欺骗性的行为。
研究人员还发现,与前几次实验相比,实际使用冲突原则对 Claude 3 Opus 进行重新训练会导致其表现出更强的欺骗性。在一项测试中,该模型在 78% 的情况下进行了对齐伪装;在另一项测试中,Claude 3 Opus 甚至试图采取行动来阻止研究人员进行重新训练。
研究人员强调,他们的研究并未表明人工智能会产生恶意目标,也未表明对齐伪装现象会高频率发生。他们发现,许多其他模型,例如 Anthropic 的 Claude 3.5 Sonnet 和能力稍弱的 Claude 3.5 Haiku、OpenAI 的 GPT-4o 以及 Meta 的 Llama 3.1 405B,并没有如此频繁地进行对齐伪装,甚至完全没有这种行为。
但研究人员表示,这些结果确实表明,这项由 Anthropic 对齐科学团队进行的研究,紧随此前一项研究之后,该研究表明 OpenAI 的 o1“推理”模型试图进行欺骗的频率高于 OpenAI 之前的旗舰模型。这些研究共同揭示了一个略微令人担忧的趋势:随着人工智能模型变得越来越复杂,它们也变得越来越难以控制。