飞桨3.0正式发布,支持文心4.5等大模型,跨芯片适配成本降80

百度旗下的深度学习平台飞桨近日宣布正式发布新一代飞桨框架3.0。此次发布的框架3.0引入了五大核心技术创新,包括“动静统一自动并行”等关键技术,旨在有效降低大模型开发和训练成本,助力大模型时代的基础设施建设。

性能优化与大模型支持

作为支撑大模型训练和推理任务的核心基础设施,飞桨框架3.0在性能优化方面表现出色。该框架已经支持包括文心4.5、文心X1在内的多款主流大模型,并通过优化的DeepSeek-R1满血版单机部署,显著提升了吞吐量,提升幅度高达一倍

百度 (4)

计算速度的提升

在计算速度方面,飞桨框架3.0借助其创新研制的神经网络编译器CINN,性能大幅提升。部分算子的执行速度提升了4倍,模型端到端的训练速度也提升了27.4%,显著缩短了大模型的训练时间。

硬件适配的创新方案

在硬件适配方面,飞桨框架3.0推出了多芯片统一适配方案,支持60余款主流芯片,并涵盖了训练集群、自动驾驶、智能终端等多种应用场景。开发者只需编写一次代码,即可实现跨芯片的无缝迁移,硬件适配成本大幅降低,直降80%

总结与展望

飞桨3.0的发布无疑是对深度学习框架的一次技术革新,为大规模人工智能模型的开发和部署提供了更高效、更灵活的支持。

飞桨3.0正式发布,支持文心4.5等大模型,跨芯片适配成本降80

YiAI团队

YiAI团队

AI大模型技术专家团队

YiAI团队是一支专注于AI大模型应用的技术团队,由来自国内外知名科技公司的AI专家组成。 我们致力于为企业和开发者提供高质量、低成本的AI大模型API服务,涵盖文本生成、对话交互、 内容理解、知识问答等多个领域。团队拥有丰富的大规模语言模型开发和应用经验,深入理解 企业在AI落地过程中的实际需求和技术痛点。