英国多个组织呼吁监管机构限制 Meta 利用人工智
互联网安全活动人士向英国通信监管机构 Ofcom 发出呼吁,要求限制人工智能在关键风险评估中的使用。这一呼吁是在有报道称 Meta 公司计划将风险评估流程自动化之后提出的。
Meta 计划通过 AI 系统审批其算法更新和新的安全功能,而不再由员工进行审查。一位匿名的 Meta 前高管向 NPR 表示,这种改变将使公司能够更快地推出 Facebook、Instagram 和 WhatsApp 的应用更新和新功能,但可能会给用户带来“更高的风险”,因为潜在问题在新产品发布前更难被预防。
NPR 还报道称,Meta 正在考虑将青少年风险和虚假信息传播监测等敏感领域的审查流程自动化。