高质量数据“被榨干”,OpenAI员工爆料:新模型“没有那么大飞跃”,公司正调整策略

图片来源:每日经济新闻 资料图

近日,据The Information报道,OpenAI的下一代旗舰模型可能不会像前面几代产品那样带来巨大的飞跃。新的模型或许无法像之前的模型那样耀眼。

据报道,测试代号为Orion的新模型的员工发现,尽管新模型性能超过了OpenAI现有的模型,但进步程度并不如从GPT-3到GPT-4的进步那么大。

换句话说,OpenAI改进的速度似乎正在放缓。根据一些内部员工的说法,在诸如编程这类的任务上Orion并不比之前的模型更可靠。OpenAI 员工和研究人员表示,GPT 研发速度放缓的原因之一是高质量文本和其他数据的供应量在不断减少。

为了应对这种情况,OpenAI成立了一个基础团队,以研究如何在新训练数据不断减少的情况下继续改进模型。据报道,这些新策略包括使用AI模型生成的合成数据对Orion进行训练,以及在训练后的过程中对模型进行更多改进。

目前,OpenAI并未回应相关消息的评论请求。不过上个月OpenAI曾表示,“我们今年没有发布代号为Orion的模型的计划。”

OpenAI下一代模型被曝质量提升不大

使用ChatGPT的用户数量正在飙升。不过,ChatGPT的底层模型的改进速度似乎正在放缓。

OpenAI即将推出的旗舰模型Orion所面临的挑战显示了OpenAI所面临的困难。今年5月,OpenAI首席执行官奥特曼告诉员工,他预计正在训练的Orion可能会比一年前发布的上一款模型好得多。

据The Information近日援引知情人士透露,奥特曼表示,尽管OpenAI只完成了Orion训练过程的20%,但就智能程度以及完成任务和回答问题的能力而言,它已经与GPT-4相当。

然而,据一些使用或测试过Orion的OpenAI员工表示,虽然Orion的性能超过了之前的模型,但与OpenAI发布的最后两款模型GPT-3和GPT-4之间的飞跃相比,质量的提升要小得多。

OpenAI的一些研究人员认为,在处理某些任务方面,Orion并不比之前的模型更可靠。据The Information援引OpenAI的一名员工称,Orion在语言任务上表现更好,但在编码等任务上可能不会胜过之前的模型。其中一位员工表示,与OpenAI最近发布的其他模型相比,Orion在数据中心运行的成本可能更高。

OpenAI研究员Noam Brown上个月在TED AI会议上表示,开发更先进的模型在财务上可能不可行。

“毕竟,我们真的要训练耗资数千亿美元或数万亿美元的模型吗?”Brown说。“在某个时候,扩展范式(Scaling paradigm)就会崩溃。”

高质量数据不足导致性能减速

Scaling laws是AI领域的一个核心假设:只要有更多的数据可供学习,以及额外的计算能力来促进训练过程,大语言模型(LLM)就会继续以相同的速度改进。

扎克伯格、奥特曼等人工智能开发商的首席执行官也公开表示,他们尚未触及传统Scaling law的极限。

这就是为什么包括OpenAI在内的公司仍花费数十亿美元来建造昂贵的数据中心,以尽可能地从预训练模型中获取性能提升。

虽然理论上目前的模型并没有触及Scaling law的极限,但是可供使用的数据来源却快要干涸了。

OpenAI的员工和研究人员表示,GPT模型减速的一个原因是高质量文本和其他数据的供应不足。大语言模型需要在预训练期间处理这些数据,以理解世界和不同概念之间的关系,从而解决撰写文章或解决编程错误等问题。

据The Information援引知情人士表示,过去几年里,大语言模型在预训练过程中使用了来自网站、书籍和其他来源的公开文本和其他数据,但模型开发人员基本上已经把这类数据资源榨干了。

图片来源:视觉中国-VCG41N1309760279

OpenAI的应对之策:合成数据、强化学习

为了应对这种情况,OpenAI成立了一个基础团队,以研究如何在新训练数据不断减少的情况下继续改进模型。该团队由之前负责预训练的Nick Ryder领导。OpenAI表示,这个团队将研究如何应对训练数据的匮乏,以及Scaling law还能适用多长时间。

据OpenAI的一名员工称,Orion的训练数据里有一部分是AI生成的合成数据。这些数据由GPT-4和最近发布的推理模型o1生成。然而,该员工表示,这种合成数据导致了一个新问题,即Orion最终可能会在某些方面与那些旧模型相似。

软件公司Databricks的联合创始人兼董事长Ion Stoica表示,这种合成数据可能并不能帮助AI进步。

Stoica说道:“对于常识性问题,你可以说现在我们看到的是大型语言模型性能都处于一个停滞状态。我们需要更多的事实数据,合成数据帮助不大。”

除此之外,OpenAI的研究者们在模型训练后阶段进行了额外的改进。比如,OpenAI采用了强化学习方法,通过让模型从大量有正解的任务中学习(比如数学或编程问题),以此来改进它们处理特定任务的方式。

同时,OpenAI还会请人工评估员对预训练的模型在特定的编程或问题解决任务上进行测试,并对答案进行评分。这有助于研究者调整模型,以更好地应对诸如写作或编程等特定类型的请求。这一方法,即带人类反馈的强化学习,也有助于改进之前的AI模型。

o1就是OpenAI使用这种改进手段得到的成果,o1模型在给出答案前,会花更多时间来“思考”大语言模型在训练过程中处理的数据。这意味着,即使不对底层模型进行修改,只要在回答用户问题时提供额外的计算资源,o1模型的回应质量就能持续提升。据知情人士透露,如果OpenAI能够持续改进底层模型的质量,哪怕速度较慢,也能显著提升推理效果。

“这为我们提供了一个全新的扩展维度,”Brown在TED AI大会上表示。研究人员可以通过将每次查询的成本从一分钱提升到十分钱来提高模型的响应质量。“

奥特曼同样强调了OpenAI推理模型的重要性,这些模型可以与LLMs结合。

奥特曼在10月份一个面向应用开发者的活动中表示:“我希望推理功能能解锁我们多年来期待实现的许多功能——例如,让这类模型有能力贡献新的科学知识,帮助编写更复杂的代码。”

但两位知情员工表示,o1模型目前的价格比非推理模型高出六倍,因此它没有广泛的客户群。

与此同时,o1模型的安全性也被很多人诟病,《自然》杂志就曾表示,在评估过程中,他们发现o1有时会遗漏关键安全信息,例如未强调爆炸危险或建议不适当的化学品控制方法。

值得一提的是,OpenAI安全系统团队负责人翁荔(Lilian Weng)近日也宣布将离开已经工作了近7年的OpenAI。

免责声明:本文章由“知识和经验”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系