Microsoft Maia 200承诺为AI工作负载带来巨大性能提升

电子产品世界01-27

微软公司(MicrosoftCorp.)今日发布了其第二代定制人工智能处理器Maia 200,大胆宣称这是目前所有公有云基础设施提供商推出的性能最强大的芯片。

该公司表示,在部分主流人工智能基准测试中,Maia 200的计算性能达到亚马逊网络服务公司(Amazon Web Services Inc.)最先进的 Trainium 处理器的三倍,同时在其他一些测试中表现优于谷歌公司(Google LLC)最新的张量处理单元(TPU)。

Maia 200是 2023 年推出的 Maia 100 芯片的继任产品,其设计初衷是让最强大的大型语言模型以更快速度运行,且具备更高的能效。该芯片集成了超过 1000 亿个晶体管,以 4 位精度运行时可提供超过 10 拍浮点运算 / 秒(petaflops)的算力,8 位精度下的算力约为 5 拍浮点运算 / 秒,相较于初代定制芯片实现了显著升级。

微软称,这款芯片主要面向人工智能推理工作负载设计。推理指的是运行已训练完成的人工智能模型的过程,随着该技术日益成熟,推理已成为人工智能运营成本中愈发重要的组成部分。

据微软透露,Maia 200 已在爱荷华州得梅因市的数据中心投入运行,支撑的负载包括 Copilot 365、OpenAI集团(OpenAIGroup PBC)的 GPT-5.2 模型以及其人工智能超级智能团队(AISuperintelligence team)的多个内部项目。该公司计划在未来几周内,在凤凰城的数据中心设施部署更多 Maia 200 芯片。

Maia 200 的推出,加速了主流云服务提供商自主研发定制人工智能处理器的趋势 —— 这类芯片将作为英伟达公司(Nvidia Corp.)图形处理器(GPU)的替代方案。目前,英伟达 GPU 仍承担着全球绝大多数人工智能工作负载,但这类产品价格高昂且需求极为旺盛。近十年前,谷歌凭借其张量处理单元(TPU)率先开启了这一趋势;亚马逊的 Trainium 芯片目前已迭代至第三代,第四代也即将推出。

微软在这场竞赛中入局较晚,其首款迈亚(Maia)芯片直到 2023 年的微软技术大会(Ignite)上才正式亮相。不过,尽管处于追赶态势,微软方面表示,迈亚 200 芯片与微软 Copilot 等人工智能模型及应用的深度集成,使其在诸多工作负载中具备显著优势。相较于初代迈亚芯片,这一代产品更明确地聚焦于推理任务而非训练任务,这一优化使其性价比提升了 30%

成本已成为公有云服务提供商之间的核心差异化竞争点 —— 原因在于,这些厂商为推进人工智能项目正消耗着巨额资金。训练人工智能模型的成本通常是一次性或周期性的支出,但推理成本却是持续产生的。因此,微软、谷歌和亚马逊均在努力压低产品定价,以与英伟达的图形处理器(GPU)展开价格竞争。

此外,微软宣布将向第三方开发者开放合作渠道,推出全新软件开发工具包(SDK),助力开发者针对迈亚 200 芯片优化其人工智能模型。该工具包已于今日启动早期预览。

免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

  • 飞天qq
    01-30
    飞天qq
    前两天满篇吹牛芯片,今天就暴跌,都是骗人的
发表看法
1
1