1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场

2024-04-11 08:02:03

  Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,

  Mistral AI 公司自成立以来一直备受外界关注,“6 人团队,7 页 PPT,8 亿融资”不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。

  该公司今天发布的 Mixtral 8x22B 开源模型是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过 HuggingFace 和 Perplexity AI Labs 平台进行下载。附上相关如下:

  Mixtral 8x22B 共有 1760 亿个参数,Context 长度为 6.5 万个 token,不过为单一任务可以调用部分模型,因此使用起来更加灵活。

下一篇:“幽灵漏洞”阴魂不散,v2衍生版影响英特尔 C
上一篇:微软修改Win11设置措辞,暗示开始菜单“推荐”新
返回顶部小火箭