大模型互相“薅羊毛”背后,行业基本操作,规范化势在必行
由喜剧演员 Sarah Silverman、普利策奖得主 Michael Chabon 等著名作家于今年夏天联合发起诉讼,他们指控 Meta 未经许可使用他们的书籍作品训练人工智能语言模型 Llama。
Meta 于今年 2 月发布了其第一版 Llama 大型语言模型,并公布了用于训练的数据集列表,其中包括“ThePile”数据集的“Books3”部分。根据诉讼文件,该数据集的创建者曾表示,其中包含 196,640 本书籍,Meta 在明知使用其中数千本盗版书籍训练其 AI 模型存在法律风险的情况下,仍然这么做了。
与之类似的,还有这次事件中的“受害者”OpenAI,今年 9 月,包括还有今年 11 月,OpenAI 和微软又被一群非小说类作品作家对 OpenAI 和微软提起了诉讼,指控这两家公司在训练其大型语言模型时,未经允许使用了他们的书籍和学术期刊,而且没有给予任何补偿。
诸多案例都显示,在眼下这个 AI 大模型发展的早期,模型训练过程中的数据问题可以说是行业的通病,是普遍现象,并且关于 AI 训练过程中的数据使用问题目前还存在较大的争议性,有待行业规范的进一步完善。
大模型的“无性繁殖”,究竟是咋回事?
我们知道,AI 大模型的基本原理是根据上文的内容输出下一个最有可能出现的 token,那么它怎么保证输出的就是我们想要的呢?答案就是靠训练。
这里我们要先简单介绍一些大语言模型训练的主要阶段:预训练、有监督的精调和人类的反馈学习。
预训练阶段是不需要人工干预的,只要喂给 AI 足够多的数据,AI 就能通过训练获得强大的通用语言能力。
接下来在有监督的精调这一步,就需要解决让大模型输出我们想要的结果的问题。
比如当我们提出“水的沸点是多少度?”这个问题,AI 可能会觉得有很多类型的回复,比如“我也很想知道”,但对人类来说,最合理的回复自然是“100 度”。
所以就需要人类引导 AI 输出我们认为合理的标准答案,这个过程中我们会人为地喂给 AI 大量问题的标准答案,来微调它的模型参数,因此叫监督学习。类似的情况还有很多,比如我们不希望大模型输出不符合人类价值观的内容,所有这些,都需要对模型进行精调,换句话说,就是要对我们想要的数据进行标注。
可想而知,数据标注这件事,是个非常海量且庞大的工程,需要投入非常多的人力和时间。在商业竞争争分夺秒的环境下,对后来进入大模型领域的企业来说,独自且重复地去完成这些事,显然不符合发展的需求。因此,很多大模型使用 GPT 生成标注数据其实已经是行业公开的秘密。
例如之前有些国内的 GPT 镜像站,完全免费,就是某些公司自己花钱调用 OpenAI 的接口,然后拿用户当劳力生成训练数据。
例如比较知名的开源数据集 Alpaca,也是用 GPT4 生成的。这种用 GPT 的标注数据训练小模型的方法也叫做“蒸馏”。
ChatGPT 爆火之后,不少公司能够这么快地跟进并推出自己的 AI 大模型,其实主要就是两个路径。
其一是使用 Meta 的开源大型语言模型 Llama 来训练。
其二就是 ChatGPT 里面蒸馏一些数据,再结合开源数据集和自己爬的数据,训练自己的大模型。
因此,尽管 OpenAI 在其 API 服务条款中有给出“不可以用 Output 来开发与 OpenAI 竞争的模型”这样的条款,但其实这一政策一直以来都很有争议。
支持的人认为 OpenAI 为训练模型做了大量前期投入,借助他们的服务走捷径是不正确的。而反对的人则认为,OpenAI 的前期训练过程吃了 AI 训练早期外部环境无戒备的红利,且同样存在数据的控诉,此后的模型很难获得同样量级和规模的训练数据,阻止其他企业调用其模型违背“Open”的精神。
今年年初,当技术团队刚开始进行大模型的初期探索时,有部分工程师将 GPT 的 API 服务应用于较小模型的实验性项目研究中。该模型仅为测试,没有计划上线,也从未对外使用。在 4 月公司引入 GPT API 调用规范检查后,这种做法已经停止。早在今年 4 月,字节大模型团队已经提出了明确的内部要求,不得将 GPT 模型生成的数据添加到字节大模型的训练数据集,并培训工程师团队在使用 GPT 时遵守服务条款。9 月,公司内部又进行了一轮检查,采取措施进一步保证对 GPT 的 API 调用符合规范要求。例如分批次抽样模型训练数据与 GPT 的相似度,避免数据标注人员私自使用 GPT。未来几天里,我们会再次全面检查,以确保严格遵守相关服务的使用条款。对于字节跳动的回应,小编想提炼两个重点,其一,字节跳动只是在探索大模型初期时,有部分工程师将 GPT 的 API 服务应用于较小模型的实验性项目研究中,而实验性项目并不违反服务条款。比如微软也曾利用 OpenAI 的合成数据做微调训练,训练出了一个 130 亿参数的模型 Orca,还达到了 chatGPT 3.5 的水平。这个和字节跳动一样,也是实验和研究的用途,并未将模型对外商用。
其二,就是字节跳动在回应中已经明确指出,他们已经在内部反复做出规范和限制,不能使用 GPT 生成数据训练模型,其实,这不仅是遵守服务条款,更是技术发展的必要,因为如果一直使用 Open AI 的模型输出,表面上是走捷径,但实际上相当于是将自己的大模型能力天花板给锁[*]了,无论模型本身、训练数据还是输出方式,都只是 GPT 的延续,这一点,字节跳动一定比谁都清楚。
AI 大模型训练中的核心问题亟待规范和完善
其实,任何新兴行业在发展初期都会存在各种各样的乱象和不合规问题,事物的发展总是一个过程,而标准和规范的介入,也往往是在行业发展规律完全呈现后,在一个合适的契机下发生的。
因此,这次字节跳动和 OpenAI、谷歌 Gemini 和文心一言相继发生的事件,小编认为,我们与其在争议中过多纠结于“对或错”,更值得关注的,应该是关于 AI 领域数据使用的行业规范是否到了进一步规范和完善的时候?
根据工业和信息化部赛迪研究院近日的数据,今年,我国生成式人工智能市场规模有望突破 10 万亿元。专家预测,2035 年生成式人工智能有望为全球贡献近 90 万亿元的经济价值,其中我国将突破 30 万亿元,占比超过四成。
一方面,生成式 AI 的发展势头可谓如火如荼,另一方面,大模型训练的问题处于生成式 AI 生命周期的开始,如果不能从源头上尽早规范,AIGC 大模型的研发就会始终处于和不确定的状态。这对于行业发展显然是不利的。
同时应该传统的授权许可以及法在生成式 AI 训练的领域内会存在很多主体、条件、可行性等难以界定的问题,比如 AIGC 训练的数据量过于庞大众多、好消息是,这个问题正在得到行业的重视。比如今年 6 月,就有中文在线、同方知网、中国工人出版社等 26 家单位共同发布了国内首份有关 AIGC 训练数据的倡议书,就针对引导 AI 生成内容的合理使用、提升保护意识、优化内容授权渠道等方面提出了倡议。
同时,我们也希望这次字节跳动和 OpenAI 以及 Gemini 与文心一言的事件也能成为一个契机,推动生成式 AI 训练数据核心问题的规范化,从“倡议”迈向实际的“落地”。
只有这样,生成式 AI 才能更好的服务于人类,服务于千行百业。