清华与上海 AI Lab 联合打造新型过程奖励模型GenPRM,让小模型超越 GPT-4o

引言

在人工智能领域,随着 OpenAI 的 o1 和 DeepSeek 的 R1 模型受到广泛关注,大语言模型(LLM)的推理能力和测试时扩展 (TTS) 技术引发了众多研究者的兴趣。然而,在处理复杂推理问题时,如何准确评估模型每一步的回答质量,依然是一个亟待解决的难题。为此,清华大学与上海 AI Lab 共同提出了生成式过程奖励模型 (GenPRM),为过程监督推理提供了创新解决方案。

GenPRM 的创新设计

传统的过程奖励模型(PRM)虽然能够验证推理步骤的正确性,但由于采用了标量评分机制,难以捕捉深层次的逻辑错误。此外,PRM 的判别式建模方式也限制了其在测试阶段的扩展能力。为此,GenPRM 结合了生成式思维链推理和代码验证,并引入了测试时扩展机制,开辟了全新的研究方向。

人工智能大脑,大模型

图源备注:图片由AI生成,图片授权服务商Midjourney

模拟人类思维过程

GenPRM 的设计理念模拟了人类解题时的思维过程,允许模型在每一步推理时进行自然语言分析,这样不仅提高了透明性,还使得步骤评估更加可解释。同时,GenPRM 生成并执行与推理相关的 Python 代码,确保推理的可靠性。这种 “先解释、再验证” 的机制,不仅能够判断对错,还能提供具体的改进建议,显著提升了过程监督的效果。

卓越的表现与优势

令人惊讶的是,GenPRM 只用了23K 的训练样本,就取得了超过 GPT-4o 的优异表现。在 ProcessBench 等数学推理基准的测试中,1.5B 参数的 GenPRM 通过测试时扩展技术的加持,表现优异;而其 7B 参数版本则成功超越了 72B 参数的 Qwen2.5-Math-PRM,展现了强大的步骤级批评能力。

高效的数据合成方法

此外,GenPRM 的优势还体现在其高效的数据合成方法上。通过相对进步估计(RPE)和代码验证,GenPRM 生成了高质量的过程监督数据,大幅减少了对大量标注数据的需求。研究者们利用 QwQ-32B 模型合成数据,并通过共识过滤保留高质量样本,最终形成了这个仅有 23K 的训练集。

未来展望

未来,GenPRM 不仅能作为答案的验证器,也能够扮演 “教练” 的角色,通过反馈指导策略模型的迭代优化。这种 “生成 - 批评 - 反思” 的闭环为大语言模型的自我改进提供了全新的路径,未来也可能扩展到代码生成和多模态推理等领域。

项目地址:https://ryanliu112.github.io/GenPRM/

清华与上海 AI Lab 联合打造新型过程奖励模型GenPRM,让小模型超越 GPT-4o

YiAI团队

YiAI团队

AI大模型技术专家团队

YiAI团队是一支专注于AI大模型应用的技术团队,由来自国内外知名科技公司的AI专家组成。 我们致力于为企业和开发者提供高质量、低成本的AI大模型API服务,涵盖文本生成、对话交互、 内容理解、知识问答等多个领域。团队拥有丰富的大规模语言模型开发和应用经验,深入理解 企业在AI落地过程中的实际需求和技术痛点。