算法相对论|吴甜:AI大模型的落地关键是解决技术与应用场景间鸿

2022-06-19 11:54:06

  创作等大量场景中。在平台上,通过大模型机制进行AI应用模型的开发,数据标注量平均降低70%,效果平均提升10.7%。文心大模型还提供了直接的API调用方式,ERNIE 3.0 Zeus、PLATO、ERNIE-ViLG都可以供使用者通过API直接访问调用。

  “产业级”一方面指文心的整个技术是在实际产业应用过程中打磨,另一方面,文心大模型在应用时建设了一系列配套能力,让行业更好用。比如怎样设计数据的标注、建议有多少数据、相应的迁移学习的方法等等。这些配套的工具和平台,包括新发布的大模型API、大模型开发套件、平台入口等,都是在提升真实应用的可行性。

  “知识增强”则是与其他行业大模型相比,百度通过引入知识图谱,将数据与知识融合,目标在于让文心大模型的学习效率更高、可解释性更好。提升了大模型的通用性和泛化性,那么就可以降低开发难度、更少标注数据。

  吴甜认为,开源、开放也是非常直接的门槛降低方式。因为AI的应用不仅仅是技术问题,更重要的是跟行业和场景相结合。并且通过开源开放,群智创新、深度协同的能力也能有显著提升,可以加速企业的智能化转型。“今天发布的10个大模型里面,有7个模型是开源的,开源是文心大模型一直在做的工作。”吴甜对谈到。

  “作为深度学习技术工

  大模型训练的挑战主要来自于“大”,模型参数规模巨大,且不同模型和算力平台特性的差异,给大模型训练带来现实的挑战。飞桨分布式架构统筹考虑这些差异性问题,用端到端自适应分布式架构,根据模型和算力平台的特点,自动选择并行策略,自动调优,高效执行,实现方案既具备通用性,又兼顾了高效性。其在并行训练策略上的创新即对异构硬件支持自适应并行训练,打造框架与算力、算法相结合三位一体的大模型训练解决方案,实现了端到端的极致性能优化。

  相对训练而言,大模型推理面临更大的挑战。大模型的高效推理是实现大模型产业应用落地的关键所在。在大模型的落地部署层面,飞桨则推出针对大模型的压缩、推理、服务化全流程部署方案,帮助大模型更好落地。

  其首先通过精度无损模型压缩技术让模型轻量化,然后通过自适应分布式推理技术,充分调动算力资源,比如千亿级模型,只有分布式推理才能跑得起来。最后通过大规模服务化部署,让大模型真正落成应用。整体方案通用且可扩展,能广泛支持不同种类的模型结构,实现高速推理,目前已支撑了如自然语言理解、对话、跨模态生成等大模型的实时在线应用。

  截至目前,文心大模型已应用于工业、能源、教育、金融、通信、媒体等行业,例如工业领域的零部件质量检测、能源领域的输电线路巡检、教育行业的作文灵感激发、金融行业的合同信息抽取等等,真正帮助企业降本增效并激发创新。同时,文心大模型也全面应用于智能、信息流、智能音箱等互联网产品,提升用户获取信息、知识和服务的效率和效果。

  总体而言,吴甜给出支撑飞桨文心大模型产业落地的3个关键路径:搭建更适配场景需求的大模型体系,提供全流程支持应用落地的工具和方法,建设激发创新的开放生态。这个生态建设的一部分就是文心·旸谷社区,其目标在于让更多人零距离接触到AI大模型技术,激发创新与创意。

下一篇:经济恢复动能持续增强 下半年经济增速有望逐季回升
上一篇:商务部新闻发言人:有信心保持全年外贸运行在合理区间
返回顶部小火箭