Intel、AMD警报响起?Arm 携手两巨头密谋AGI芯片,首款效能架构大解密

发布时间:2026-03-25 10:49

在AI基础设施快速迈向“代理式AI(Agentic AI)”新时代之际,IP龙头Arm正式跨出关键一步。Arm宣布推出首款自研资料中心处理器“Arm AGI CPU”,不仅象征其成立逾35年来首次进军量产硅芯片市场,也宣告从IP授权模式进一步延伸至完整运算平台与系统级产品布局,抢攻下一世代AI资料中心核心运算地位。

Arm 执行长 Rene Haas

▲Arm 执行长 Rene Haas。图/中时新闻网

Arm指出,随着AI从训练走向大规模推论与自动化决策,“代理式AI”正成为产业主流。此类系统透过大量软件代理(agents)协同运作,可实时完成复杂任务,运算负载不再受限于人类操作速度,进一步推升资料中心长时间、高密度运算需求。在此架构下,CPU角色从传统辅助运算,转变为整体AI系统的“节奏控制核心”,负责任务调度、资料搬移、存储器管理与加速器协同运作。

为因应此趋势,Arm推出基于Neoverse平台打造的AGI CPU,主打“机架级(rack-scale)”效能与能效最佳化。该产品设计可在高密度部署环境下维持稳定运算效能,并支援数千核心平行处理能力。根据Arm提供的参考架构,一组1OU双节点服务器可搭载272核心,单一36kW气冷机架最高可配置8,160核心;若采液冷方案,单机架可部署336颗处理器、超过4.5万核心,显示其针对超大型AI丛集的扩展能力。

效能表现方面,Arm强调AGI CPU可在机架层级提供超过2倍于传统x86平台的效能,主要受惠于高存储器频宽、较佳执行绪效率,以及Neoverse V3核心在单执行绪效能上的优势,有效降低高负载下的资源竞争问题,提升整体运算效率。

值得注意的是,此次产品并非单打独斗,而是结合大型云端与AI生态系共同推动。Meta为主要合作伙伴,参与共同开发并将导入自家资料中心,搭配其MTIA AI加速器使用。其他合作企业涵盖Cerebras、Cloudflare、OpenAI、SAP及SK Telecom等,应用范围横跨云端运算、网络服务与企业AI系统。

其中,OpenAI指出,随着ChatGPT与API服务持续扩张,AI系统对于运算协调层(orchestration layer)的需求显著提升,Arm AGI CPU将有助于提升整体系统效率与频宽配置;Cloudflare则强调其在全球网络基础设施中,对高效能与低功耗运算的需求日益迫切。

业界分析,此举代表Arm正式由“架构授权商”升级为“平台与芯片供应者”,将直接与Intel、AMD等传统资料中心CPU供应商竞争,同时也有助于巩固其在AI基础设施中的战略地位。

随着AI资料中心规模持续扩大,CPU在系统中的价值重新被放大,Arm透过高能效与高扩展性优势,有望进一步提高在超大型云端与AI运算市场的渗透率。

来源︱中时新闻网
编辑︱胡影雅