在提供新的和改进的生成式人工智能服务的竞争中,科技公司需要新的 CPU 来为越来越多的服务器提供动力。毫无疑问,英伟达(NVIDIA)一直是为包括微软在内的这些公司提供此类 CPU 的领导者,并因此赚得盆满钵满。
今天,英伟达最大的竞争对手之一 AMD 宣布,计划推出 AMD Instinct MI300 系列,提供最新版本的生成式 AI 芯片。微软是表示将在其服务中使用 AMD 新芯片的公司之一。具体而言,微软表示将在其 Azure ND MI300x v5 虚拟机服务器中使用 AMD Instinct MI300X。
AMD表示,新的 Instinct MI300X 采用了 CDNA 3 架构。它将其性能与英伟达(NVIDIA)H100 GPU进行了比较,后者已被包括微软在内的许多公司用于人工智能服务:
与英伟达 H100 HGX 相比,AMD Instinct 平台在 BLOOM 176B4 等 LLM 上运行推理时,吞吐量最多可提高1.6倍,并且是市场上唯一能够在单个 MI300X 加速器上运行 70B 参数模型(如Llama2)推理的选择;简化了企业级 LLM 部署,实现了出色的总体拥有成本(TCO)。
AMD 还表示,Meta 和甲骨文等公司将把 Instinct MI300X 芯片用于自己的生成式人工智能服务。
这只是 AMD 为满足对基于 AI 的 GPU 的大量需求而采取的新举措的最新例证。事实上,微软几周前在 Ignite 2023 大会上宣布,它将制造自己的内部 AI 芯片 -- Azure Maia AI 加速器。它将在 2024 年初的某个时候用于为 Microsoft Copilot 和 Azure OpenAI 服务提供动力。