英伟达OpenReasoning-Nemotron模型:数学推理超o3,开源LLM新巅峰

英伟达近日宣布推出OpenReasoning-Nemotron模型,这一创新成果基于Qwen2.5架构,并利用DeepSeek-R1-0528生成的数据进行训练,展示了在数学、科学和代码任务上的卓越推理能力。

据悉,OpenReasoning-Nemotron在多个基准测试中刷新了记录,特别是在数学领域,其表现超越了先前的标杆模型o3。这一突破引发了业界的广泛关注,人们纷纷猜测,开源模型领域的王座或将再次更迭。

英伟达此次推出的模型提供了四种参数规模,分别是1.5B、7B、14B和32B,用户可以在本地实现100%运行。尽管这些模型带有“国产血统”——其架构基于Qwen2.5,SFT训练数据由DeepSeek-R1-0528生成,但它们在推理能力上的表现却毫不逊色。

OpenReasoning-Nemotron被公认为当前最强的蒸馏推理模型。英伟达研究科学家Igor Gitman介绍了该模型的亮点,指出它不仅仅进行token预测,而是实现了真正的推理能力。这一突破得益于DeepSeek-R1-0528的蒸馏,该模型在5M的数学、代码和科学推理轨迹上进行了训练。

值得注意的是,OpenReasoning-Nemotron在没有进行任何在线强化学习的情况下,仅通过有监督微调(SFT)就取得了如此显著的成果。未来,随着进一步优化或使用更少的token,这些模型有望实现相似甚至更好的性能。

除了在数学基准测试中超越OpenAI o3(高算力版)外,OpenReasoning-Nemotron还展现出了从数学到代码的泛化能力。尽管这些模型仅针对数学问题训练了GenSelect算法,但它们在代码任务上也取得了令人惊讶的结果。

然而,英伟达也澄清,这是一次“研究性质”的模型发布,主要目标是验证新生成数据的价值,并探索仅通过监督微调能将性能推到何种程度。因此,这些模型目前可能无法胜任多轮对话或作为通用助手。

尽管如此,OpenReasoning-Nemotron在多个具有挑战性的推理基准测试中仍表现出色,7B、14B和32B模型在各自规模类别下均创下了多项最先进纪录。这一成果不仅展示了英伟达在AI领域的深厚积累,也为未来的推理模型研究提供了新的基线。

英伟达还发现了一些有趣的现象。例如,参数规模对模型性能的影响巨大,1.5B模型在处理较长上下文生成时可能不太一致,而7B或更大的模型则表现出了显著的进步。模型还学会了两种不同的行为:一种是使用工具但推理较差,另一种是不使用工具但推理很强。

为了让更多用户能够体验OpenReasoning-Nemotron模型的强大功能,英伟达提供了详细的本地运行指南和模型链接。用户只需下载适用于macOS、Windows或Linux的LM Studio,在搜索标签页输入“openreasoning”,即可安装所需版本的模型。

英伟达的这一创新成果无疑为AI领域带来了新的活力,也为未来的推理模型研究指明了方向。随着技术的不断进步和应用场景的不断拓展,我们有理由相信,AI将在更多领域展现出其独特的价值和潜力。

文章采集于互联网