全球首创能用4090推理,昆仑万维开源2千亿稀疏大

2024-06-03 18:39:23

  昆仑万维今日宣布开源 2 千亿稀疏大模型 Skywork-MoE,基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来,号称是首个完整将 MoE Upcycling 技术应用并落地的开源千亿 MoE 大模型,也是首个支持用单台 RTX4090 服务器推理的开源千亿 MoE 大模型。

  据介绍,本次开源的 Skywork-MoE 模型隶属于天工 3.0 的研发模型系列,是其中的中档大小模型,模型的总参数量为 146B,激活参数量 22B,共有 16 个 Expert,每个 Expert 大小为 13B,每次激活其中的 2 个 Expert。

  天工 3.0 还训练了 75B 和 400B 两档 MoE 模型,并不在此次开源之列。

  根据官方测试,在相同的激活参数量 20B下,Skywork-MoE 能力接近 70B 的 Dense 模型,使得模型的推理成本有近 3 倍的下降。同时 Skywork-MoE 的总参数大小比 DeepSeekV2 的总参数大小要小 1/3,用更小的参数规模做到了相近的能力。

  Skywork-MoE 的模型权重、技术报告完全开源,免费商用,无需申请,附链接如下:

  模型权重下载:

  模型开源仓库:

  模型技术报告:

  模型推理代码:

下一篇:110 小时续航、三模无线连接,华硕 ROG 棱镜 2 游
上一篇:研究显示美国 7% 用户每天使用 ChatGPT,个人使用
返回顶部小火箭