Meta AI · 其他
Meta 两年内推出四款 MTIA 芯片
Meta 自研的 AI 加速芯片 MTIA 在过去两年间已推出四款,涵盖训练与推理场景。这些芯片专为 Meta 的社交网络、推荐系统及生成式 AI 工作负载设计,旨在以更低功耗提供更高算力。最新一代芯片在性能与能效上均有显著提升,帮助 Meta 在数十亿用户规模的 AI 应用中降低成本、提升响应速度。
- 域名
ai.meta.com- 评分
- 5 · 重大发布
- 收录
- 2026-05-17
导读
Meta 在两年内推出四款 MTIA(Meta Training and Inference Accelerator)芯片,从 MTIA v1 到最新的 v3 / v3 Inference / v4 Plan,把自研 AI 芯片的迭代节奏推到了与 NVIDIA、 Google TPU 同一级别。这条线的战略意义在于减少对 NVIDIA H100/B100 的依赖。
MTIA 系列以推理优化为主,主要用于跑 Meta 自家的推荐系统、广告排序、Llama 模型推理。 最新的 v3 Inference 在能效比上据 Meta 内部测试超过 H100,单芯片功耗约 350W,专门为 推荐系统的稀疏 embedding 计算做了定制电路。v4 已进入流片阶段,预计 2026 年下半年 量产。
Meta 不直接对外销售 MTIA,但这套硬件支撑了 Instagram、Facebook、WhatsApp 上海量的 AI 服务。把训练和推理都跑在自研芯片上意味着 Meta 在 AI 基础设施成本结构上能拉开与 竞争对手的差距,也为 Llama 系列开源提供了底层经济性支撑。