首席连线丨中金公司彭虎:大模型迭代中算力基础设施或更受益

2023-06-24 09:35:19

  带宽等多个维度提出了更高的技术要求。更大算力、更高内存、更快带宽的AI芯片需求有望持续提升。”彭虎指出。

  彭虎进一步指出,二是服务器。相较于传统的服务器,AI服务器以异构形式配备了GPU、NPU、FPGA、ASIC等多类芯片,能够支持大模型训练的高算力需求。AI服务器对算力、功耗、存储、通信等有更高的要求,由此带来芯片配置、硬件架构、机箱设计等方面的差异。

  “三是交换机。数据流量的快速增长,叠加人工智能发展推动数据中心网络架构转型,有望驱动交换机数量和端口速率上行,高速以太网交换机市场有望实现强劲增长。”彭虎称。

  彭虎表示,四是光模块。考虑到模型并行训练、AI应用推理的快速发展,800G、1.6T等下一代光模块产品的渗透率提升曲线,或将变得更为陡峭。此外,硅光模块、CPO技术有望引领下一代数据中心风向,助力超高带宽数据互联。

  “五是存储与温控等。AI模型的训练及推理对存储器提出了更高的要求,有望加速SSD对HDD的替代进程。同时,AI服务器高能耗特性,有望推动数据中心的散热系统向液冷更新迭代。”彭虎说,“六是电源。大模型高能耗的特点,有望增大对电力的需求。”

  虽然当下大模型面临的利好因素很多,但彭虎强调,大模型的发展在C端和B端仍有一些不确定性因素。

  “ToC端,除了GPT-4,其他AI模型的用户还处于免费体验的模式,同时以Microsoft 365、New bing等为代表的应用,也仍处于免费体验的模式,收费模式尚不确定。ToB端,目前大量初创企业接入的ChatGPT、GPT-4 API接口收费较低,未来的收费标准和模式也不确定。”彭虎解释称。

  “随着全社会数字化转型及智能化渗透率的提升,人工智能持续赋能各行各业。人工智能依赖于海量数据进行模型训练及推理应用,并推动全社会算力需求的提升,因此服务器、存储器、通信网络设备等上游硬件基础设施,均有望受益于AI驱动的算力需求提升。但如果人工智能发展及应用落地不及预期,可能会使上游硬件设备受到需求侧的压制,导致发展不及预期。”彭虎说。

下一篇:男子回了个“OK”表情结果成被告 表情使用不当也可能惹官司
上一篇:蚂蚁庄园今日答案最新6.23:跳水运动员需要戴泳帽和泳镜吗
返回顶部小火箭