OpenAI、Anthropic研究员齐声谴责xAI:安全文化“完

2025-07-17 15:57:29

  OpenAI、Anthropic 等机构的 AI 安全研究人员近日公开发声,批评马斯克 xAI 的安全文化目前在 OpenAI 担任 AI 安全研究员的哈佛大学计算机科学教授 Boaz Barak 在 X 上发文说:“我原本不打算评论 Grok 的安全问题,毕竟我所在的公司与 xAI 存在竞争关系,但这件事根本不是竞争问题。我尊重 xAI 的科学家和工程师,但他们Barak 特别指出,xAI 拒绝发布“系统卡片”令人担忧。正因为 xAI 没有公布相关信息,Grok 4 Barak 还对 Grok 的 AI 虚拟角色提出批评,认为它们“放大了我们在情感依赖方面最糟糕的问题”。近年来已有不少案例显示,一些心理状态不稳定的人Anthropic 的 AI 安全研究员 Samuel Marks 也批评 xAI 拒绝公开安全评估报告,称此举“鲁莽”。他表示:“Anthropic、OpenAI 和谷歌在这方面都不完美,但至少他们在上线前目前,外界根本无法判断 xAI 是否对 Grok 4 进行过系统测试。在论坛 LessWrong 上,有匿名研究者发帖称,Grok 4“xAI 的安全顾问、AI 安全中心主任 Dan Hendrycks 在 X 上表示,公司已对 Grok 4 进行过“曾在 OpenAI 领导安全团队、现为独立研究员的 Steven Adler 对 TechCrunch 表示:“如果连最基本的安全实践都不能在行业内得到执行,比如公布危险能力评估的结果,那我确实感到担忧。政府和公众马斯克本人长期以来就是 但眼下多个研究团队认为 xAI 的行为正背离这些理念,在发布模型的安全流程上已偏离行业常规。讽刺的是,这些做法反而可能促使州议会和联邦政府更快推动相关立法,要求 AI 公司多位研究者指出,AI 安全和对齐测试不仅是为了防止极端风险,也是为了防范眼下模型行为失常的问题。

下一篇:思特威2亿像素CMOS曝光:11.28英寸,原生支持4K1
上一篇:我国上半年电动自行车火灾 7048 起,同比下降
返回顶部小火箭