Vector Institute 发布 AI 模型性能评估报告,助力透明性与可信度

引言

人工智能(AI)模型的发展速度让人眼花缭乱,技术开发者们在不断提升其性能的同时,也引发了用户对于模型表现真实度的疑虑。为了解决这一问题,由杰弗里・辛顿(Geoffrey Hinton)创办的 Vector Institute 为人工智能研究推出了《评估现状研究》。该研究通过互动排行榜对11个顶尖的开放源代码和闭源模型进行了全面评测,涵盖了数学、通用知识、编码、安全性等16个基准

研究发现

Vector Institute 的 AI 基础设施与研究工程经理约翰・威尔斯(John Willes)表示:“研究人员、开发者、监管者和最终用户可以独立验证结果,比较模型性能,并构建自己的基准和评估,从而推动改进和责任的落实。”

大模型 元宇宙 (2)

图源备注:图片由AI生成,图片授权服务商Midjourney

模型表现对比

在这次评估中,表现最好的模型包括 DeepSeekOpenAIo1,而表现较差的模型则是 Command R+,后者在测试中显示出较低的性能,这主要是因为其是测试中规模最小且最老的模型。

开放源代码与闭源模型

研究发现,闭源模型在复杂的知识和推理任务中通常表现优于开放源代码模型,但 DeepSeek 的优秀表现表明开放源代码模型也能够保持竞争力。威尔斯指出:“在简单任务中,这些模型相当有能力,但随着任务复杂度增加,我们发现推理能力和理解能力大幅下降。”

应对评估挑战

此外,所有11个模型在评估实际问题解决能力的 “代理性基准” 上都面临挑战,特别是在软件工程和其他需要开放式推理和规划的任务中,仍有很长的路要走。为了解决这一问题,Vector Institute 开发了多模态巨量多任务理解(MMMU)基准,评估模型处理图像和文本的能力。

多模态理解评估

在多模态理解的评估中,o1展现了 “卓越” 的能力,尤其是在不同格式和难度水平下。而威尔斯强调,当前仍需更多努力以实现真正的多模态系统,能够统一处理文本、图像和音频输入。

评估泄露问题

针对评估中的挑战,威尔斯指出,评估泄露是一个重要问题,即模型在熟悉的评估数据集上表现良好,但在新数据上却不再出色。他认为,开发更具创新性的基准和动态评估将是解决这一问题的关键。

Vector Institute 发布 AI 模型性能评估报告,助力透明性与可信度

YiAI团队

YiAI团队

AI大模型技术专家团队

YiAI团队是一支专注于AI大模型应用的技术团队,由来自国内外知名科技公司的AI专家组成。 我们致力于为企业和开发者提供高质量、低成本的AI大模型API服务,涵盖文本生成、对话交互、 内容理解、知识问答等多个领域。团队拥有丰富的大规模语言模型开发和应用经验,深入理解 企业在AI落地过程中的实际需求和技术痛点。