
4月20日消息,据外媒Wccftech报道,处理器大厂AMD有望拿下人工智能技术大厂Anthropic的订单,将采购AMD下一代Instinct MI450加速器提供算力支持。
报道称,在AI 算力需求爆发与GPU 供应持续紧绷的背景下,大型科技公司逐步降低对英伟达的依赖,而是开始导入多元化的算力来源,包括AMD GPU与自研芯片,以降低成本并分散供应风险。
AMD近年积极切入AI数据中心市场,此前已取得OpenAI与Meta等客户的订单,其中与Meta更是签下了约6GW 规模的算力采购订单,涵盖多个世代Instinct GPU加速器。
根据规划,AMD 预计于今年推出Instinct MI400 系列(包含MI450X 与MI430X),采用CDNA 5 架构,计算性能与内存带宽同步升级。官方数据显示,该系列算力最高可达40 PFLOPS(FP4)与20 PFLOPS(FP8),约为前一代MI350 系列的两倍。
此外,MI400 系列还将导入HBM4,容量由288GB(HBM3e)提升至432GB,增幅达50%,同时带宽提升至19.6TB/s,显著高于上一代产品。此外,单GPU 对外带宽达300GB/s,有助于提升大规模AI 模型训练与推论效率。
AMD MI400 系列也直接对标英伟达下一代架构,主打在HBM容量与机架间传输(scale-out)频宽具备优势,分别达竞品的1.5 倍,其余如FP4 / FP8 算力与内存带宽则维持同等水准。
不过,业界普遍认为,AMD要进一步扩大市占,仍需时间突破软件生态门槛。相较之下,英伟达长期建立的CUDA 生态系在开发工具、框架支援与工程师熟悉度上仍具明显优势,而AMD 采用的开源ROCm 平台虽具弹性,但整体成熟度与使用便利性仍在追赶阶段。
另一方面,Anthropic近年一直在积极布局多元算力来源,目前已同时采用英伟达GPU、Amazon Trainium,以及与Google与博通合作取得TPU 资源。Anthropic还透露,已签署数GW 规模的下一代TPU 算力协议,预计自2027 年起陆续上线,以支援其Claude 模型发展。
市场观察指出,大型AI厂商正从“单一GPU 依赖”转向“多供应商+自研芯片”并行模式。一方面可降低对单一供应商的依赖风险,另一方面也有助于压低算力成本。
此外,随着Anthropic 与博通关系深化,未来也可能进一步投入自研ASIC 芯片,强化长期算力自主能力。
编辑:芯智讯-林子