作者:泷码首席执行官(CEO)平台
2026年3月3日,据《The Information》援引知情人士消息,全球社交科技巨头Meta正式叫停其自研高端AI训练芯片Olympus项目,原因是芯片设计复杂度超出预期、研发周期与成本失控,这一决定标志着科技巨头自研高端AI芯片的路径出现重大调整,Meta将转向依赖第三方芯片供应商,优化现有AI基础设施战略。
Meta的自研AI芯片项目始于2023年,属于“Meta训练和推理加速器”(MTIA)项目的核心组成部分,其初衷是降低对英伟达、AMD等外部芯片供应商的依赖,同时减少数据中心运营成本并增强基础设施控制能力。此前,Meta已放弃其第二代训练芯片Iris的一个版本,并随后启动了更先进的Olympus芯片开发,计划采用单指令多线程(SIMT)架构,与英伟达芯片类似,这种架构更适合AI训练软件,但硬件实现复杂度更高。
据悉,Olympus芯片的GPU原计划采用Meta去年收购的Rivos的技术,该技术可兼容英伟达的Cuda软件生态——而Cuda是当前AI训练的行业标准,Meta原计划最早于2026年第四季度完成Olympus设计,芯片设计完成后还需至少9个月才能实现量产,最终基于该芯片构建大规模AI训练服务器集群。然而,随着研发的推进,Olympus项目的问题逐渐凸显:芯片设计难度远超预期,功耗控制难度高,若无法有效控制功耗,将削弱其相对于英伟达产品的竞争力;同时,研发周期不断延长,成本持续攀升,让管理层对项目前景产生怀疑。
一名参与芯片开发的人员表示,公司内部对能否开发出可与英伟达性能匹敌的芯片持怀疑态度,尤其是在软件生态成熟度方面,难以与英伟达的Cuda生态抗衡,而复杂的设计也可能增加量产难度,若继续推进,可能影响公司在与OpenAI和谷歌竞争过程中训练新模型的进度。基于以上因素,Meta管理层最终决定取消Olympus项目,调整AI基础设施战略。
在叫停Olympus项目的同时,Meta也在加强与现有芯片供应商的合作。据悉,Meta已签署价值数十亿美元的协议,从谷歌租用AI芯片;AMD本周表示,将与Meta合作部署最多6GW的Instinct AI芯片,以支持Meta下一代AI基础设施;此外,Meta本月还宣布与英伟达建立跨多代合作关系,将继续在数据中心部署英伟达芯片。
业内分析认为,Meta取消Olympus项目,反映出高端AI训练芯片研发的高难度与高风险,即便对于Meta这样的科技巨头,也难以在短期内突破技术瓶颈并实现与行业龙头的竞争。此次战略调整,将帮助Meta聚焦核心业务,降低研发风险,通过与第三方供应商的合作,快速获取成熟的AI算力支持,更好地应对与OpenAI、谷歌等企业在大模型领域的竞争。
数据来源:IT之家《消息称meta自研芯片梦受挫:最先进芯片夭折,靠合作寻求替代方案》(2026年2月28日)、《The Information》报道(2026年2月27日)


