英伟达开源 OCR 代码推理AI模型

2025-05-09 15:22:07

  科技媒体 marktechpost 昨日发布博文,报道称OCR 模型套装提供三种参数规模,分别为 OpenCodeReasoning-Nemotron-32B、14B 和 7B,均使用 Nemotron 架构训练。

  32B 模型面向高性能推理和研究场景,提供顶尖效果;14B 模型在降低计算需求的同时保持强大推理能力;7B 模型则适合资源受限的环境,仍能在基准测试中展现竞争力。

  此外,32B 模型还推出了指令微调版本,支持与开放推理生态系统无缝兼容,适配 llama.cpp、vLLM、Hugging Face Transformers 和 TGI 等主流框架,方便开发者快速集成。

  Open Code Reasoning模型套装在代码推理领域展现出惊人实力。在 LiveCodeBench 基准测试中,这套模型全面超越 OpenAI 的 o3-Mini 和 o1 模型。

  Distilled 7B+ Models

  Bespoke-Stratos-7B14.72.0OpenThinker-7B25.55.0R1-Distill-Qwen-7B38.011.1OlympicCoder-7B40.910.6OCR-Qwen-7B48.516.3OCR-Qwen-7B-Instruct51.318.1

  Distilled 14B+ Models

  R1-Distill-Qwen-14B51.317.6OCR-Qwen-14B57.722.6OCR-Qwen-14B-Instruct59.423.6

  Distilled 32B+ Models

  Bespoke-Stratos-32B30.16.3OpenThinker-32B54.116.4R1-Distill-Qwen-32B58.118.3OlympicCoder-32B57.418.0OCR-Qwen-32B61.824.6OCR-Qwen-32B-Instruct61.724.4

  注:LiveCodeBench 是一个综合评估平台,专注于调试、代码生成和逻辑补全等真实开发者环境中的任务。

  这一成就不仅得益于模型架构的优化,还归功于英伟达打造的定制“OCR 数据集”。该数据集聚焦高质量代码训练,强调指令遵循、推理能力和多步骤问题解决能力。

下一篇:北京移动迎来首位“双万兆”用户,有线网络下
上一篇:铁三角与 Wind and Sea 推出限量版 Sound Burger 便携黑
返回顶部小火箭