单片超过1400亿晶体管,10 PetaFLOPS算力能轻松运行当今最大AI模型,微软正试图通过一枚特制芯片改写AI推理的经济规则。
1月26日,微软正式推出第二代自研AI芯片Maia 200。作为一款专为AI推理优化的芯片,其性能数据堪称惊人:在4位精度下可提供超过10 PetaFLOPS的算力,8位精度下算力超过5 PetaFLOPS。
与当前部署的最新硬件相比,Maia 200每美元性能提升高达30%。这是科技巨头为降低对英伟达依赖而采取的最新举措。
01 技术突破
微软此次发布的Maia 200采用了最先进的3纳米制程工艺,由台积电代工制造。
这款芯片的单颗晶体管数量达到了惊人的1400亿个,热设计功耗控制在750W以内。它不仅拥有强大的计算核心,还配备了216GB带宽达7TB/s的HBM3e内存和272MB的片上SRAM。
芯片专门优化了针对AI推理的窄精度计算,支持FP8、FP6和FP4等多种精度格式。这种设计使它在处理大规模AI模型时能够实现更高的能效比。
02 性能对标
微软声称,Maia 200在多项基准测试中表现出色,FP4性能是亚马逊第三代Trainium芯片的3倍,FP8性能也超越了谷歌的第七代TPU。
在实际应用中,单块Maia 200芯片可以轻松运行当前最大规模的AI模型,并为未来更大的模型预留充足算力空间。这一定位使它与主要专注于训练任务的上一代Maia 100芯片形成明显区别。

03 市场布局
微软云与AI执行副总裁Scott Guthrie表示,首批Maia 200芯片将优先分配给微软的“超级智能团队”,用于生成数据以改进下一代AI模型。
这些芯片还将驱动面向企业的Copilot助手,以及微软向云客户提供的各种AI模型,包括OpenAI的最新模型。
目前,Maia 200已经部署在微软位于美国中部的数据中心区域,接下来将扩展至美国西部-3区域。
04 战略意图
随着AI推理成本在企业运营成本中的占比持续提升,微软正试图通过自研芯片建立比使用通用GPU更低的成本结构。
Moor Insights & Strategy分析师Matthew Kimball指出:“当你关注企业在AI领域的战略落脚点时,它就在推理上,这将融入你所做的一切。”
AI推理市场预计到2032年将达到3495亿美元,微软的Maia系列芯片正是瞄准这一庞大市场。微软正通过减少对外部供应商的依赖,直接定制芯片来去掉中间环节。
05 生态构建
微软已发布Maia软件开发套件,邀请开发者、学者和前沿AI实验室在其工作负载中使用这一新平台。
该芯片平台支持通过标准以太网连接多块芯片,替代英伟达的InfiniBand标准,最多可联动6144颗芯片形成大规模计算集群。
对于电信运营商等行业客户,Maia 200基于以太网的互连系统可能提供新的机遇,使他们能够以更高的能源和成本效率提供新的智能AI能力。
微软的芯片部署路线已经清晰:从爱荷华州的数据中心开始,逐步扩展至凤凰城地区,最终覆盖更多区域。
凭借每美元性能提升30%的优势,以及专为推理优化的架构设计,Maia 200不仅是技术实力的展示,更是微软在千亿美元AI推理市场中抢占先机的战略武器。
随着企业越来越依赖AI推理应用,微软已经准备好为其客户提供比竞争对手更具成本效益的解决方案。市场正密切关注,微软将如何利用这一优势降低客户成本,或将其转化为Azure云服务更高的利润率。

关注 “悠AI” 更多干货技巧行业动态