研究:反复使用AI生成的内容来训练AI可造成“模
牛津大学的伊利亚・舒梅洛夫博士和他的团队发现,当生成式 AI 软件仅依赖于由 AI 生成的内容时,回答的质量开始恶化。这项研究已经发表在在最初的两次查询后,答案逐渐舒梅洛夫表示:“令人惊讶的是,模型崩溃发生得如此迅速且难以察觉。最初,它会影响到研究人员通过一种方法确定了“模型崩溃”现象的存在:使用一个预训练的 AI 驱动的维基百科,然后让 AI 模型基于自己生成的内容进行更新。受污染数据的影响逐渐导致原本的训练集被侵蚀,输出的信息也随之变得报道称,根据亚马逊网络服务团队在 6 月发布的另一项研究,大约 57% 的网络文本都经过了 AI 算法的翻译。如果互联网上的人类生成数据研究得出结论,要实现 AI 的长期可持续发展,唯一方法是确保其能够附研究链接: