AMD CEO苏姿丰指出,云计算领域对大型处理器及GPU的需求尤为突出。MI300X基于一种能显著提升性能的新架构设计,其最大亮点在于配备了192GB高性能HBM3内存,传输数据速度更快,适合处理更大规模的AI模型。
苏姿丰直接将AMD的MI300X与其竞争对手英伟达的主流AI GPU芯片H100进行了对比,强调性能提升能够带来更好的用户体验。他提到,在面对日益复杂的模型时,用户总是渴望获得更快的响应。
然而,AMD面临的挑战是如何说服那些已长期依赖英伟达的公司。对此,苏姿丰表示,需要付出更多努力使它们接受AMD的产品。
为了与英伟达的CUDA软件竞争,AMD对ROCm软件套件进行了改进,解决了影响AI开发者选择AMD芯片的关键缺陷,从而提高了其竞争力。
在价格方面,AMD尚未公开MI300X的具体定价。考虑到英伟达GPU芯片每块约4万美元的价格,AMD需确保其芯片在价格及运营成本上更具优势,以吸引客户。
AMD已与包括Meta、微软、甲骨文在内的多家公司签订协议,这些公司在AI领域有着巨大的需求。根据Omidia的报告,Meta和微软预计将成为2023年英伟达H100 GPU芯片的主要买家。
具体应用层面,Meta计划利用MI300X芯片处理AI推理任务,例如AI贴图、图像编辑以及语音助手运行。微软通过Azure网络服务提供对MI300X芯片的访问,而甲骨文的云计算服务也将采用这种芯片。此外,OpenAI计划在其Triton软件产品中支持AMD的GPU芯片,尽管Triton并非大型语言模型,但仍能充分利用芯片的功能进行AI研究。
AMD对MI300X的大规模销售前景持谨慎态度,预计2024年数据中心GPU营收约为20亿美元。对比之下,英伟达最近一个季度的数据中心营收超过140亿美元,但包括了除GPU之外的其他芯片业务。
AMD预测未来四年AI GPU芯片市场的规模可能达到4000亿美元,远超其之前的预期,显示了高端AI芯片的巨大市场需求。苏姿丰强调,AMD并不认为必须超越英伟达才能实现业务增长。
在人工智能芯片市场方面,苏姿丰认为英伟达目前占据了主导地位,但预计到2027年市场规模将超过4000亿美元,AMD有信心在这片广阔的市场中占据一席之地。