宝塔服务器面板,一键全能部署及管理,送你10850元礼包,点我领取

12月7日消息,当地时间周三Meta、OpenAI微软在AMD投资者活动上表示,他们都将使用AMD最新开发的人工智能芯片Instinct MI300X。这表明,虽然英伟达的GPU芯片对于开发和部署ChatGPT等人工智能程序至关重要,但很多科技公司都在寻找替代品。

如果AMD最新的高端芯片Instinct MI300X能在明年初开始出货,并满足人工智能公司和相关云服务提供商的需求,那么可能会降低开发人工智能模型的成本,并对英伟达不断飙升的人工智能芯片业务形成竞争压力。

周三AMD首席执行官苏姿丰表示:“所有的关注点都集中在云计算所用的大型处理器和大型GPU上。”

AMD表示,MI300X基于一种能显著提升性能的新架构。这款芯片的最大特点是拥有192GB的高性能HBM3内存,传输数据速度更快,可以适配规模更大的人工智能模型。

苏姿丰直接将MI300X及其构建的系统与英伟达推出的主流人工智能GPU芯片H100进行了一番比较。

“这种性能可以直接转化为更好的用户体验,”苏姿丰说。“当你向模型提出问题时,总希望它能更快回复,尤其是在回应日益复杂的情况下。”

AMD面临的主要问题是,一直以英伟达为基础的公司是否会在另一家GPU供应商身上再投入时间和金钱。“接受AMD还需要下力气,”苏姿丰说。

AMD周三告诉投资者和合作伙伴,公司已经对ROCm软件套件进行了改进。为与作为行业标杆的英伟达CUDA软件竞争,解决了一个关键缺陷。ROCm软件套件原来的这个缺陷一直是人工智能开发者目前更喜欢英伟达的主要原因之一。

芯片价格也很重要。周三AMD并没有透露MI300X的定价。目前英伟达GPU芯片每块售价约为4万美元,苏姿丰表示,AMD的芯片价格必须比英伟达更低,运营成本也更低,才能说服客户购买。

周三AMD还表示,已经与一些最需要GPU芯片的公司签订了使用协议。根据市场研究公司Omidia最近的一份报告,Meta和微软是2023年度英伟达H100 GPU芯片的两大买家。

Meta表示,将使用MI300X芯片来处理人工智能推理工作负载,比如人工智能贴纸、图像编辑以及语音助手的运行。

微软首席技术官凯文·斯科特(Kevin Scott)表示,公司将通过Azure网络服务提供对MI300X芯片的访问。

甲骨文的云计算也将使用这种芯片。

OpenAI表示将在一款名为Triton的软件产品中支持AMD的GPU芯片。Triton不是像GPT那样的大型语言模型,但也利用芯片功能开展人工智能研究。

AMD目前还没有对这款芯片的大规模销售做出预测,仅预计2024年数据中心GPU的总营收约为20亿美元。相比之下,单单最近一个季度英伟达的数据中心营收就超过140亿美元,不过这一数据中还包括GPU以外的其他芯片业务。

然而AMD表示,未来四年人工智能GPU芯片市场的规模可能会攀升至4000亿美元,是公司此前预期的2倍。这表明业内对高端人工智能芯片的期望很高,也正是AMD现在将投资者的注意力集中在产品线上的原因。

苏姿丰还表示,AMD并不认为需要击败英伟达才能在市场上取得更好业绩。

在谈到人工智能芯片市场时,苏姿丰说:“我认为很明显,英伟达现在肯定占据绝大多数份额。”“我们认为,到2027年这个数字可能会超过4000亿美元。我们完全可以从中分得一杯羹。”