ChatGPT点燃算力基础设施板块 这次轮到服务器 龙头已五天三板

2023-02-15 17:34:48

  ChatGPT因过于火爆而多次宕机,多位网友尝试更换浏览器访问ChatGPT,都表示登陆不上,且收到“满负荷运转”的提示。《科创板日报》尝试登陆后发现,这一问题至今没有解决,ChatGPT依然会因为“异常高的需求”停摆。

  国盛证券以英伟达A100芯片、DGXA100服务器、现阶段每日2500万访问量等假设为基础,估算得出:在初始算力投入上,为满足ChatGPT当前千万级用户的咨询量,投入成本约为8亿美元,对应约4000台服务器。ChatGPT持续火爆背景下,服务器将随着算力需求的不断提升而水涨船高。

  与此同时,AI技术的发展也对为其提供基础计算工具和环境的数据中心算力以及服务器硬件设备产生了新的要求。

  我国《新型发展三年行动计划》提出新型应具备高技术、高算力、高能效、高安全等特征。对此,太平洋表示,“四高”已经成为未来数据中心的必备条件,而相应的服务器市场或将迎来较快增长。

  目前我国AI服务器市场增速较快。根据IDC最新发布的《中国加速计算市场跟踪报告》,2021年全年中国AI服务器市场规模达350.3亿元,同比增长68.6%。、宁畅、新华三、华为、安擎位居前五,占据了82.6%的市场份额。其中,浪潮AI服务器市场占有率达52.4%,连续5市场份额超过50%。

  据《科创板日报》不完全梳理,这些A股公司均已推出相关产品:

  另外,从投资角度来看,AI服务器需求增加有望为更多细分赛道带来机遇:

  底层芯片是支撑AI服务器的硬件基础。AI服务器主要由CPU和加速芯片构成,主要应用于计算机视觉,机器学习等领域,可以提供超过30TOPS的训练算力。

  其中,CPU满足逻辑判断,任务调度与控制等基本计算任务;GPU适用于通用并行计算,能够为AI训练任务提供更高算力;FPGA具有低延时,开发周期短等特性,可用于AI推理任务等;ASIC与通用集成电路相比功耗更低性能更优,可用于针对AI训练任务设定特定框架。

  散热件厂商也有望从中受益。此前有业内人士指出,服务器的功耗普遍在400瓦甚至更高,当CPU越热时,系统厂必须解决热源的问题。浙商证券表示,风冷散热已趋于能力天花板,升级液冷需求迫切,预计AI服务器芯片级液冷需求达百亿级:匡算2025年全球、中国AI服务器液冷市场规模223-333亿元、72-108亿元。

  A股公司中,英维克已经在冷板式液冷赢得一些重要项目,与英特尔等联合发布白皮书;高澜股份目前已实现服务器液冷相关产品的样件及小批量供货。

下一篇:王代强调研安全生产工作
上一篇:洛阳市8家“学习强国”县级融媒号全部上线
返回顶部小火箭