

近日,英伟达发布了其新一代 Blackwell GPU,首席执行官黄仁勋在一次主题演讲中宣布了这一消息,其中展示了12个芯片的复杂互连结构。这一创新有望超越上一代 Hopper GPU 的性能,标志着AI技术领域的一大进步。
众多科技巨头已表示将采用这一技术,包括 AWS、谷歌、Meta、微软、Oracle 以及 CoreWeave 等云计算服务商。据称,英伟达正与这些合作伙伴紧密合作,致力于将 Blackwell GPU 集成到他们即将推出的云端实例中,从而为客户提供更强大的计算能力。
分析师 Joe Moore 指出,英伟达在 AI 芯片市场的主导地位预计将延续至2025年之后。各大云服务提供商纷纷采用英伟达的最新技术,进一步巩固了其在该领域的领导地位。市场研究机构 Gartner 也预测,2024年人工智能的支出将持续增长。
英伟达此次共发布了三款 Blackwell GPU 产品,它们将应用于数据中心加速、边缘计算和工作站等多种应用场景。Blackwell 系列包括 B200 Tensor Core GPU 和 GB200 Grace “超级芯片”,这些产品专为构建和部署大规模语言模型(LLM)而设计,能够显著提升 AI 训练和推理的效率。
值得注意的是,英伟达推出的 B100 和 B200 GPU 在互连技术上有所不同,提供了更多选择。具体来说,单个芯片的人工智能加速功能由传统的 CoWoS-L 互连技术提供支持,而更高性能的 Blackwell 加速器则采用了 HBM3E 互连技术。据了解,英伟达将率先采用八层堆叠的 HBM3E 内存,从而实现更高的带宽。
展望未来,英伟达计划在2024年晚些时候开始交付 Blackwell 架构的产品,预计将在今年下半年向早期客户提供首批 Blackwell GPU。Blackwell 的设计旨在满足人工智能计算日益增长的需求,它不仅提升了性能,还有助于降低大型语言模型的训练成本,为各行各业带来更高效的 AI 解决方案。
总而言之,英伟达正在通过不断创新来推动人工智能技术的发展,致力于解决 AI 应用中的复杂挑战:如模型规模、准确性和效率等问题。Blackwell 的推出再次证明了英伟达在该领域的领先地位,为人工智能的未来发展奠定了坚实的基础。
在接下来的几个月里,英伟达的生态系统预计将扩展至263家合作伙伴,相比之下,训练AI模型所需的算力提高了154%,这证明了其在该领域显著的进步。
关键要点:
– 英伟达 Blackwell GPU 发布,拥有12个芯片的互连结构。
– 主要云服务商如 AWS、谷歌等已准备就绪,将采用最新技术。
– 英伟达 预计2024年下半年开始交付 Blackwell GPU,有望提升AI性能。