



来源 : theregister伯乐配资
押注自研 Maia 加速器
微软自研芯片战略:计划以自研加速器替代多数 AMD、 GPU
微软长期从英伟达(Nvidia)和 AMD 两家公司采购大量图形处理器(GPU)。但展望未来,这家总部位于雷德蒙德(Redmond)的科技巨头领导层希望将其大部分人工智能(AI)工作负载,从外部 GPU 迁移至自研的加速器上。
作为软件领域的巨头,微软在定制芯片领域的布局起步较晚。(Amazon)和谷歌(Google)多年前就已着手研发定制中央处理器(CPU)和 AI 加速器伯乐配资,而微软直到 2023 年末才公布其自研的 Maia AI 加速器。
推动这一转型的核心原因,是对“每美元性能”(performance per dollar)的重视—— 对于超大规模云服务提供商而言,这一指标堪称唯一真正重要的衡量标准。
在周三由美国消费者新闻与商业频道(CNBC)主持的炉边谈话中,微软首席技术官(CTO)凯文・斯科特(Kevin Scott)表示,截至目前,英伟达的产品在性价比方面表现最佳,但为满足需求,他愿意考虑任何可行方案。
斯科特指出,未来微软希望将自研芯片应用于其数据中心的大部分工作负载。当被问及 “长期规划是否是让数据中心以微软自研芯片为主” 时,他明确回应:“是的,毫无疑问。”
随后,他向 CNBC 补充道:“这关乎整个系统的设计,包括网络和散热环节。我们需要拥有自主决策的自由度伯乐配资,才能针对具体工作负载,实现计算资源的真正优化。”
2023 年,微软借助首款自研 AI 加速器 Maia 100,将 OpenAI 的 GPT-3.5 模型迁移至自研芯片运行,成功释放了部分 GPU 算力。然而,从性能参数来看,这款芯片与英伟达、AMD 的竞品 GPU 存在明显差距:其 BF16 精度算力仅为 800 万亿次 / 秒(teraFLOPS),配备 64GB 高带宽内存(HBM2e),内存带宽为 1.8TB / 秒。

据悉,微软正推进第二代 Maia 加速器的研发,计划于明年推向市场。新一代产品无疑将在计算性能、内存容量及互联速度上实现升级,具备更强的竞争力。
不过,即便未来微软数据中心中 “GPU 与 AI 专用集成电路(ASIC)的占比” 发生变化,自研芯片也不太可能完全取代英伟达和 AMD 的 GPU。
过去数年,和亚马逊已部署了数万台自研的张量处理器(TPU)和 Trainium 加速器。这些芯片虽帮助它们赢得了 Anthropic 等知名客户,但更多时候是用于加速自身内部的工作负载。
因此,目前在谷歌、亚马逊的云平台上,英伟达和 AMD 的 GPU 仍在大规模部署 —— 部分原因在于客户对这类主流 GPU 的需求依然存在。
值得注意的是,AI 加速器并非微软唯一在研的定制芯片。雷德蒙德团队还研发了名为 Cobalt 的自研 CPU,以及一系列平台安全芯片 —— 这些安全芯片可加速加密运算,并在其庞大的数据中心网络中保护密钥交换过程,保障数据安全。
- End -
恒汇证券提示:文章来自网络,不代表本站观点。