OpenAI与AWS签7年3.8亿美元协议 锁定大规模英伟达GPU算力

AI快讯9小时前发布 niko
3 0

OpenAI与亚马逊云科技(AWS)近日敲定3.8亿美元合作协议,未来七年将接入AWS全球数据中心内专属集群的数万颗英伟达GPU算力,为其AI模型的训练、调优及部署提供长期稳定的计算支撑。这一合作是OpenAI算力基础设施战略升级的关键一步——从“按需租用第三方算力”转向“构建适配自身模型的专有架构”。

随着AI技术迭代速度加快,OpenAI已不再满足于依赖通用云服务的算力供给。其核心诉求是搭建一套完全匹配大模型并行计算特性的专有基础设施:相较于通用云架构,专有设施能避免资源调度冲突导致的性能损耗,更精准地支撑模型从研发到落地的全流程需求。此次与AWS绑定长期算力,正是为这一战略提供“底层资源保障”——让OpenAI在自研基础设施的同时,无需担忧核心计算能力的稳定性。

AWS作为全球头部云服务提供商,其数据中心的英伟达GPU集群具备高吞吐量、低延迟的技术优势,能有效承接OpenAI大规模模型的计算需求。双方将联合优化基础设施架构,确保算力输出节奏与OpenAI的模型迭代速度同步,为其未来的AI产品发布铺路。

在OpenAI的算力生态中,不同合作伙伴承担着差异化功能:微软Azure负责核心模型的训练工作,CoreWeave支撑快速实验性运算,甲骨文提供区域算力补充,谷歌云则服务ChatGPT的日常工作负载。此次AWS的加入,将为OpenAI增添更大的带宽与更快的部署能力——通过在多伙伴间灵活调度工作负载,OpenAI能规避单一算力源的瓶颈,提升整体运营效率。

OpenAI首席执行官Sam Altman表示:“拓展AI的边界需要大量可靠的计算资源,与AWS的合作将为我们的长期研发奠定坚实基础。”AWS首席执行官Matt Garman补充道:“OpenAI持续突破AI的可能性边界,而AWS的顶级基础设施将成为其实现愿景的基石。”

  • 合作核心:OpenAI与AWS签署7年3.8亿美元协议,获得AWS全球数据中心内数万颗英伟达GPU的专属集群算力;
  • 战略目标:OpenAI计划构建专有基础设施,适配快速迭代的AI模型,替代单纯租用云服务的模式;
  • 生态价值:AWS的加入将强化OpenAI的算力生态,提升多伙伴间工作负载调度效率,规避算力瓶颈。
© 版权声明