

芯片制造商Cerebras Systems Inc.正在挑战英伟达在人工智能芯片领域的主导地位。这家公司推出了一种“有史以来最大的芯片”,旨在为那些寻求替代Nvidia Corp.产品的客户提供服务。Cerebras声称其芯片能够提供卓越的计算性能,从而加速人工智能模型的训练,同时降低构建大型人工智能基础设施的成本。
Cerebras的“晶圆级引擎”采用了最新的WSE-3芯片技术。这款芯片集成了惊人的900,000个计算核心和44GB的片上内存,相比之下,Nvidia H100芯片的片上内存仅为52MB。Cerebras表示,单个芯片的处理能力相当于1,000个传统GPU,而能耗仅为其20%。据称,这种芯片的强大性能可以将训练大型人工智能模型所需的时间从数月缩短至几周,甚至几天。
Cerebras芯片旨在支持各种工作负载,包括自然语言处理、计算机视觉和科学计算。该公司已经优化了其API,以支持Llama3 8B模型在不到10分钟内完成训练,而Llama3 70B模型则可以在大约60分钟内完成。该芯片还支持混合精度和稀疏性,从而进一步提高了性能。
目前,Cerebras的客户包括阿布扎比的G42公司、Perplexity AI Inc.和Meter Inc.。DeepLearning AI Inc.的创始人吴恩达已经利用Cerebras的计算平台来提供人工智能培训课程,他认为这种芯片能够让更多人更容易地访问和使用大型人工智能模型。
为了简化芯片的使用,Cerebras还发布了一系列软件工具,旨在帮助开发者轻松地将其人工智能模型部署到其平台上。这些工具包括LangChain、LlamaIndex、Docker Inc.、Weights & Biases Inc.和AgentOps Inc.。此外,Cerebras的芯片API与OpenAI的热门API兼容,使得开发者可以轻松地将其现有的应用程序迁移到该平台。
快讯中提到的AI工具

致力于创造对全人类有益的安全 AGI