华为 Flex:ai 重磅发布!算力切分黑科技让硬件利用率翻倍至 70%

AI 算力效率迎来革命性突破!华为全新推出 AI 容器软件 Flex:ai,凭借独创的算力切分技术,将 GPU/NPU 硬件资源细分为最小 10% 的虚拟单元,再通过聚合空闲资源构建共享算力池,直接把硬件利用率从行业普遍的 30%-40% 提升至约 70%,实现算力价值翻倍。

这款软件最核心的优势的是软硬件深度融合 —— 底层打通芯片架构,顶层优化资源调度,支持单卡同时运行多个负载任务,彻底解决了传统 AI 部署中 “算力闲置” 的痛点。更值得关注的是,它能统一管理英伟达 GPU、昇腾 NPU 等异构算力资源,打破不同硬件之间的兼容壁垒,让企业无需重构系统就能灵活调配算力。

为了加速 AI 生态共建,Flex:ai 发布后已同步在魔擎社区开源,开发者可免费获取技术资源进行二次创新。无论是 AI 企业、科研机构还是开发者,都能借助这款工具降低算力成本、提升部署效率,为大模型训练、智能应用开发等场景注入强劲动力,也让华为在 AI 算力调度领域树立了新的行业标杆。

.

.

.