

领先的人工智能云提供商正在扩大其规模,通过与数字基础设施领域的领导者 CoreWeave 合作,在全球范围内增加 GPU 容量。 这些新增的 GPU 容量将通过与 Digital Realty 和 Global Switch 等公司的合作来实现。 目前,该公司已承诺投入 10 亿美元(预计最终将达到 12 亿美元)用于扩展 CoreWeave 在全球范围内的业务。
相关阅读:探索AI工具,探索先进的AI图像生成工具 Midjourney
CoreWeave 的首席执行官表示:“CoreWeave 的发展离不开合作伙伴的支持,我们很荣幸能与这些创新企业合作,共同构建下一代基础设施。我们期待与 Digital Realty 和 Global Switch 合作,为人工智能计算提供卓越的解决方案。” 据悉,其背后的驱动力是 Nvidia 在数据中心加速计算领域的持续需求。 这些新增的 GPU 容量将采用 Nvidia 最新的 Hopper 架构 H200,预计 Nvidia 的 Blackwell 平台将于 2024 年晚些时候推出。
H200 是 Nvidia Hopper 系列中的一款顶级 GPU,配备 141GB 的 HBM3e 内存,提供 4.8TB 的内存带宽和 4 petaFLOPS 的 FP8 算力。 据 CoreWeave 透露,其配置将超过 1TB 的内存容量,这些 GPU 将能够满足下一代 AI 应用的需求。
据测试,单个 H200 能够以显著优势运行 Meta 的 Llama 3 1405B 模型,单个 GPU 能够处理 AI 推理工作负载,在性能上超越了需要 8 个 H100 GPU 才能完成的任务。 CoreWeave 致力于为客户提供出色的全球基础设施和 GPU 资源,满足不断增长的需求。
这些新增的 GPU 容量是 CoreWeave 长期发展战略的关键部分,旨在满足不断增长的算力需求。 展望未来,CoreWeave 计划进一步扩展其业务,预计其在美国的业务规模将增长至 175 亿美元(此前预计为 21 亿美元)。
总的来说,CoreWeave 正在积极投资于基础设施建设,以支持人工智能计算领域的发展,并计划在 2025 年之前将其 GPU 数量增加到 10 万个。 此外,CoreWeave 还计划在美国各地增加 28 个数据中心。
总之,云提供商正在积极应对人工智能工作负载需求的增长。 据估计,人工智能训练所需的总算力每 3.5 个月翻一番,导致对人工智能加速基础设施的需求增长了 50 倍,并可能在未来几年内达到 470 亿美元(此前预计为 570 亿美元)。 考虑到这一点,云提供商正在调整其发展战略,以满足人工智能生态系统不断增长的需求。
要点:
🌎 CoreWeave 正投入 10 亿美元用于在全球范围内扩展其 GPU 容量。
💻 数据中心将采用 Nvidia H200 芯片,并支持 Blackwell 平台。
💡 人工智能云提供商正在增加其基础设施,预计将达到 470 亿美元。
快讯中提到的AI工具

开启 AI 绘画的奇幻之旅