速度快10倍,成本降一个数量级!英伟达发布ChatGPT专用GPU

2023-03-22 13:10:47

  北京时间3月21日晚,图形芯片巨头英伟达召开2023年GTC大会,其创始人兼CEO黄仁勋穿着标志性皮夹克发表主题演讲,介绍了英伟达在人工智能领域的多款产品,包括为大型语言模型设计的新款GPU、针对AI的芯片L4,以及AI超级计算服务DGX Cloud等。

  在演讲中,黄仁勋多次重复道,AI的iPhone时刻已经到来,并表示“生成式AI将重塑几乎所有行业”。

  “生成式AI让企业产生重新思考其产品设计、商业模式,大家都希望成为推动变革的一方,而不是被变革淘汰的一方。”黄仁勋说道。

  去年11月,OpenAI推出基于大型语言模型的聊天机器人ChatGPT,这一技术引发各界关注,随后微软、谷歌等科技公司在AI领域展开角逐。

  在演讲中,黄仁勋也着重介绍了英伟达在这一领域的布局,透露道针对算力需求巨大的大型语言模型,英伟达推出新款GPU——NVIDIA H100 NVL。

  与用于处理ChatGPT的HGX A100相比,搭载四对H100和双NVLINK的标准服务器的处理速度最高可达10倍。黄仁勋称,它能将大语言模型的处理成本降低一个数量级。

  此外,针对AI英伟达还推出了芯片L4,在解码和转码、内容审核、通话等功能上进行优化。英伟达称,相比传统的CPU,L4能够提供高出120倍的AI性能,同时能效提高99%。

  在芯片制造工艺方面,英伟达还宣布推出计算光刻库cuLitho,并与ASML、台积电等巨头展开合作。据介绍,cuLitho可将计算光刻加速40倍以上,使2nm及更先进芯片的生产成为可能。

  “计算光刻是芯片设计和制造领域中最大的计算工作负载,每年需要消耗数百亿CPU小时。”黄仁勋说道,该软件正被集成到全球最大的代工芯片制造商台积电的设计系统中,台积电将于6月开始对cuLitho进行生产资格认证。

  在主题演讲中,黄仁勋还介绍了英伟达在生成式AI方面的另一个布局——AI超级计算服务DGX Cloud。

  黄仁勋透露,英伟达已经与多家云服务供应商合作,推出云端人工智能DGX Cloud,未来企业可以按月租、通过浏览器使用DGX Cloud集群,快速轻松地扩展大型多节点AI训练。DGX Cloud起价为每个实例每月36999美元。

  “这种合作关系将英伟达的生态系统带到云服务商手中,还扩大了英伟达的市场规模和覆盖面。”黄仁勋说道。

  据介绍,每个DGX Cloud实例具有八个H100或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。NVIDIA Networkin 构建的高性能、低延迟结构确保工作负载可以跨互连系统集群扩展,允许多个实例充当巨大的GPU,以满足高级AI训练的性能要求。

  目前英伟达已经与甲骨文展开合作,预计微软Azure在下个季度将会开始托管DGX Cloud,未来谷歌云也将加入托管行列。

  值得注意的是,早在2016年,黄仁勋便向OpenAI交付了第一台NVIDIA DGX超级计算机。黄仁勋透露,目前DGX已经被企业广泛用于优化数据和处理AI,《财富》100强企业中有一半安装了DGX。黄仁勋称,DGX是超级计算机是现代AI工厂。

  对于英伟达带来的产品,金融机构Rosenblatt Securities的半导体分析师Hans Mosesmann表示,这些产品“比竞争对手领先很多年。”该分析师认为,“英伟达在AI软件方面的领导地位不仅具有里程碑意义,而且还在加速发展。”

下一篇:土耳其总统埃尔多安与伊拉克总理苏达尼举行联合记者会
上一篇:德国一家酿酒厂开发出“速溶啤酒” 除了不含酒精其他都一样
返回顶部小火箭