OpenAI 成立监督委员会评估 AI 安全,并已开始训练
OpenAI 成立了一个董事会委员会,用来评估其人工智能模型的安全性。这一举措距离该公司解散内部安全团队以及安全问题负责人离职仅数周时间。
此前,OpenAI 的治理问题受到了来自两位前董事会成员海伦・托纳 和塔莎・麦考利 的严厉批评。她们在周日的新成立的委员会将在 90 天内评估 OpenAI 技术的保障措施,并提交报告。“董事会完成全面审查后,OpenAI 将以符合安全原则的方式公开分享所采纳的建议,”该公司周二在其博客中写道。
OpenAI 还表示,他们最近已经开始训练其最新的 AI 模型。
去年秋天,OpenAI首席执行官萨姆・阿尔特曼 与联合创始人兼首席科学家伊利亚・苏茨凯沃 在人工智能产品开发速度和限制危害的措施上发生冲突,阿尔特曼在一次董事会政变中被短暂罢免。
本月,苏茨凯沃和他的得力助手 Jan Leike 离开公司,这两位科学家领导了 OpenAI 的超智能体对齐团队 ,该团队专注于研究超人类人工智能的长期威胁。Leike 在辞职后写道,他的部门在 OpenAI 内部 “争夺计算资源” 方面遇到了困难。其他离职员工也表达了类似的批评意见。
苏茨凯沃离职后,OpenAI 解散了他的团队。该公司周二表示,这项特殊工作将由其研究部门和新任命的对齐科学负责人、联合创始人约翰・舒尔曼 领导下继续进行。
上周 OpenAI 取消了一项政策,该政策规定如果前员工批评公司,将取消其股票期权。
OpenAI 新成立的安全委员会将由三位董事会成员组成,分别是董事长布雷特・泰勒 、Quora 首席执行官亚当・德安杰洛 和索尼娱乐公司前高管妮可・塞利格曼 ,以及包括舒尔曼和阿尔特曼在内的六名员工。该公司表示将继续咨询外部专家,并提到了其中两位:唐纳德・特朗普时期国土安全部顾问罗布・乔伊斯 和乔・拜登总统任内司法部的前官员约翰・卡林 。