谷歌新研究:合成数据助力大模型,数学推理能力提升八倍

研究背景

近期,谷歌、卡内基梅隆大学与 MultiOn 的研究团队联合发布了一项关于合成数据在大模型训练中应用的新研究。根据 AI 发展科研机构 Epoch AI 的报告,目前人类公开的高质量文本训练数据大约有300万亿 tokens,但随着大型模型如 ChatGPT 的快速发展,对训练数据的需求正以指数级增长,预计在2026年前这些数据将被消耗殆尽,因此合成数据逐渐成为重要的替代方案。

QQ_1743987258822.png

合成数据的类型

研究人员探索了合成数据的两种主要类型: 正面数据负面数据。正面数据是指来自高性能大模型(如 GPT-4和 Gemini1.5Pro)生成的正确问题解决方案,这些数据为模型提供了学习如何解决数学问题的示例。然而,仅依赖正面数据进行训练存在一定局限性。

正面数据的局限性

首先,这种方法可能无法深入揭示问题解决过程中的内在逻辑,模型可能只是通过模式匹配学习而缺乏真正的理解。其次,随着训练数据的增加,模型可能会学习到一些偶然的错误关联,导致其在处理新问题时的泛化能力下降。

引入负面数据

因此,研究人员引入了负面数据类型。这些数据包含了被验证为错误的解题步骤,能够帮助模型识别并避免错误,增强其逻辑推理能力。尽管利用负面数据面临一定挑战,因为错误步骤可能带有误导性信息,但通过DPO(直接偏好优化)方法进行优化,研究人员成功地使模型从错误中学习,并强调每一步解题的重要性。

DPO 方法

DPO 方法为每个解题步骤分配一个优势值,反映该步骤相对于理想解法的价值。研究表明,高优势值步骤是正确解题的关键,而低优势值步骤则可能暗示模型推理中的问题。通过这些优势值,模型能够在强化学习的框架下动态调整其策略,以更高效地学习和改进合成数据。

实验验证

为了验证合成数据的效果,研究团队在 GSM8K 和 MATH 数据集上对 DeepSeek-Math-7B、LLama2-7B 等模型进行了综合测试。结果显示,经过正面和负面合成数据预训练的大模型,其在数学推理任务上的性能提升了八倍。这一研究成果展示了合成数据在提高大模型逻辑推理能力方面的巨大潜力。

划重点:  

  • 📊 合成数据作为替代方案,有效应对日益增长的训练数据需求。
  • 🧩 正面和负面数据结合,提升模型的数学推理和逻辑能力。
  • 🚀 研究表明,合成数据预训练后,大模型的推理能力提升了八倍。

谷歌新研究:合成数据助力大模型,数学推理能力提升八倍

YiAI团队

YiAI团队

AI大模型技术专家团队

YiAI团队是一支专注于AI大模型应用的技术团队,由来自国内外知名科技公司的AI专家组成。 我们致力于为企业和开发者提供高质量、低成本的AI大模型API服务,涵盖文本生成、对话交互、 内容理解、知识问答等多个领域。团队拥有丰富的大规模语言模型开发和应用经验,深入理解 企业在AI落地过程中的实际需求和技术痛点。