

Epoch AI 近期发布了一份关于 AI 模型训练成本的报告,报告中指出,训练一个大型语言模型所需的计算资源,相当于使用超过 60 块 Nvidia H100 GPU。
Epoch AI 的研究表明,要超越当前最先进的 Nvidia GPU 的性能,可能需要专门定制的 TPU 芯片,以便能够高效地执行 AI 模型训练任务。
该报告还深入探讨了训练 AI 模型所需的巨大算力,并指出 Nvidia 在 AI 加速计算领域占据着重要地位。早在 2022 年,Nvidia 就已售出超过 300000 块 H100 GPU 用于 AI 训练。这些加速器对于推动大型 AI 模型的快速迭代至关重要,同时也促进了相关技术的蓬勃发展。目前,包括 Oracle 和 CoreWeave、AI 初创公司 xAI 和 Inflection 等诸多企业,都在积极构建其 AI 计算基础设施。
Epoch AI 的分析强调了,为满足日益增长的 AI 计算需求,行业需要不断创新,以提供更高效的解决方案。英伟达最新的 Blackwell GPU 旨在进一步提升计算性能。预计“超级芯片”的设计,将帮助 Nvidia 在高性能计算领域保持领先地位,并在未来 12 个月内实现 Blackwell 加速器的广泛部署。
除了 Nvidia 之外,AMD、谷歌、亚马逊、Meta、OpenAI 等公司也在积极投资 AI 计算基础设施。未来,这些公司有望凭借自身的技术实力,在加速 AI 模型训练方面发挥关键作用,并进一步推动 AI 技术的发展。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/hhmcmnlf暂无评论...