OpenAI AI 安全策略遭质疑,前高管批评其“篡改公
OpenAI 最近向社区分享了其谨慎、逐步部署 AI 模型的方法,采取分阶段发布的策略,并以 GPT-2 的谨慎发布为例。然而,这一示例引发了OpenAI 发布的文件阐明了附文件部分内容大意如下:
在一个不连续的世界中…… 安全的教训来自于对当今系统的极度谨慎,尤其是相对于它们表现出来的力量,这正是我们对 GPT-2 的方法。我们现在将第一个 AGI 视为逐步增加有用性的系统中的一部分… 在连续的世界中,确保下一个系统安全且有益的方式是从当前系统中学习。
曾任公司政策研究负责人多年的 Miles Brundage 坚称,GPT-2 的发布同样采取了“这篇大部分内容都很好,我为那些致力于其中所讨论的实质性工作的人们点赞。但我非常不满 / 担忧‘AGI 分步实现而非一蹴而就’这一说法,它以令人不安的方式重写了 GPT-2 的历史。”
Brundage 还表达了对 OpenAI 声称 这并非 OpenAI 第一次因过度追求进步和利润而忽视长期安全问题而受到批评。像 Brundage 这样的专家担心,如果不对 AI 安全保持谨慎,未来可能面临的风险将十分严重。
