飞桨3.0全新升级:兼容文心4.5大模型,跨芯片适配成本直降80
飞桨3.0全新升级:兼容文心4.5大模型,跨芯片适配成本直降80

飞桨3.0全新升级:兼容文心4.5大模型,跨芯片适配成本直降80

发布于: 全文约502字
百度飞桨发布新一代框架3.0,引入五大技术创新,显著降低大模型开发成本,提升训练性能与速度。框架支持多款主流大模型,优化硬件适配,实现性能提升,为人工智能模型开发提供高效基础设施。

百度旗下的深度学习平台飞桨近日宣布正式发布新一代飞桨框架3.0。此次发布的框架3.0引入了五大核心技术创新,包括“动静统一自动并行”等关键技术,旨在有效降低大模型开发和训练成本,助力大模型时代的基础设施建设。

作为支撑大模型训练和推理任务的核心基础设施,飞桨框架3.0在性能优化方面表现出色。该框架已经支持包括文心4.5、文心X1在内的多款主流大模型,并通过优化的DeepSeek-R1满血版单机部署,显著提升了吞吐量,提升幅度高达一倍。

在计算速度方面,飞桨框架3.0借助其创新研制的神经网络编译器CINN,性能大幅提升。部分算子的执行速度提升了4倍,模型端到端的训练速度也提升了27.4%,显著缩短了大模型的训练时间。

在硬件适配方面,飞桨框架3.0推出了多芯片统一适配方案,支持60余款主流芯片,并涵盖了训练集群、自动驾驶、智能终端等多种应用场景。开发者只需编写一次代码,即可实现跨芯片的无缝迁移,硬件适配成本大幅降低,直降80%。

飞桨3.0的发布无疑是对深度学习框架的一次技术革新,为大规模人工智能模型的开发和部署提供了更高效、更灵活的支持。

飞桨3.0 大模型 文心4.5 CINN
Sitemap.xml
© 2025 Juhe.ai
西安指尖漫步科技有限公司