DeepSeek-R1-0528 更新官方详解:思考更深、推理更强
DeepSeek R1 模型昨日宣布完成小版本升级,今日晚间,深度求索官方公布了DeepSeek-R1-0528 更新的详细升级内容,附具体介绍如下:
深度思考能力强化
DeepSeek-R1-0528 仍然使用 2024 年 12 月所发布的 DeepSeek V3 Base 模型作为基座,但在后训练过程中投入了更多算力,
DeepSeek-R1-0528 在各项评测集上均取得了优异表现
相较于旧版 R1,这一进步得益于模型在推理过程中的思维深度增强:在 AIME 2025 测试集上,旧版模型平均每题使用 12K tokens,而新版模型平均每题使用 23K tokens,表明其在解题过程中进行了更为详尽和深入的思考。
同时,官方蒸馏 DeepSeek-R1-0528 的思维链后训练 Qwen3-8B Base,得到了 DeepSeek-R1-0528-Qwen3-8B。该 8B 模型在数学测试 AIME 2024 中仅次于 DeepSeek-R1-0528,超越 Qwen3-8B ,与 Qwen3-235B 相当。深度求索官方认为,DeepSeek-R1-0528 的思维链对于学术界推理模型的研究和工业界针对小模型的开发都将具有重要意义。
DeepSeek-R1-0528-Qwen3-8B 等开源模型的 AIME 2024 对比结果其他能力更新
示例为通过 LobeChat 使用 DeepSeek-R1-0528 的工具调用能力得到的网页总结
此外,
示例为在网页端调用 DeepSeek-R1-0528 使用 HTML / CSS / JavaScript 开发的一个现代简约风格的单词卡片应用API 更新
API 已同步更新,接口与调用方式保持不变。新版 R1 API 仍支持查看模型思考过程,官方对新版 R1 API 中 max_tokens 参数的含义做了调整:现在 max_tokens 用于限制模型单次输出的总长度,默认为 32K,最大为 64K。请 API 用户及时调整 max_tokens 参数以防输出被提前截断。
R1 模型的使用方法详见 API 指南:
本次 R1 更新后,官方网站、小程序、App 端和 API 中的模型上下文长度仍为 64K。如果用户对更长的上下文长度有需求,可以通过其他第三方平台调用上下文长度为 128K 的开源版本 R1-0528 模型。
模型开源
DeepSeek-R1-0528 与之前的 DeepSeek-R1 使用同样的 base 模型,仅改进了后训练方法。私有化部署时只需要更新 checkpoint 和 tokenizer_config.json。模型参数为 685B,开源版本上下文长度为 128K。
DeepSeek-R1-0528 模型权重下载参考:
Model Scope:
Huggingface:
与旧版本的 DeepSeek-R1 保持一致,此次开源仓库
