

在2024年,预估将有大量用于训练人工智能模型的芯片交付。据估计,大约485,000颗Nvidia Hopper架构的芯片将被运送给包括Meta和Google在内的科技巨头。
根据Nvidia的官方规划,Hopper芯片的供应预计将在2023年第三季度显著增加。
这些芯片将被广泛应用于训练大型语言模型。值得关注的是,微软也在开发自己的人工智能芯片,代号为Maia。这款芯片首次公开是在2023年11月的Ignite大会上,展示了微软在芯片设计领域的实力。
至于OpenAI,他们也计划在2024年获得大量芯片。预计到10月份,OpenAI将拥有超过66,000颗英伟达芯片,用于支持其人工智能模型的训练和推理。此外,OpenAI也在积极探索自研芯片的可能性,旨在降低对外部供应商的依赖,从而更好地控制成本和提升性能。
总而言之,各大公司都在大力投资人工智能芯片,以驱动人工智能模型的发展,并提升相关应用的用户体验。未来的竞争格局将充满变数,值得我们拭目以待。
要点总结:
✨ 预计2024年将有485,000颗Nvidia Hopper芯片交付,Meta和Google将是主要客户。
💡 微软正在开发名为Maia的AI芯片,用于加速人工智能模型的训练和推理。
📌 OpenAI也在积极探索自研芯片,以优化模型性能和降低成本。
快讯中提到的AI工具

OpenAI
致力于创造对全人类有益的安全 AGI
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/qg8v938v暂无评论...