安谋科技全新“周易”X3 NPU IP,FP8 AI算力狂飙至惊人80 TFLOPS!

2小时前发布AI之家
0 0 0
摘要:

安谋科技在上海发布了全新NPU IP“周易”X3,采用DSP与DSA混合架构,广泛应用于基础设施、智能汽车、移动终端及智能物联网等领域。该产品结合CNN与Transformer优势,单集群FP8算力高达8~80 TFLOPS,单核心带宽256GB/s,支持大型模型的计算加速模式。搭载Compass AI软件平台,兼容主流AI框架,提升了开发者的选择性。性能上,“周易”X3的FP16 TFLOPS是前代的16倍,AIGC大模型能力提升10倍,展示了安谋科技在技术创新上的持续努力。

安谋科技全新“周易”X3 NPU IP,FP8 AI算力狂飙至惊人80 TFLOPS!的封面图

安谋科技于本月13日在上海举行的新品发布会上,隆重推出了其全新的NPU IP“周易”X3。这款产品采用了DSP与DSA的混合架构,展现出在基础设施、智能汽车、移动终端及智能物联网等四大核心领域的广泛应用前景。

“周易”X3在设计上巧妙融合了CNN与Transformer的优势,其单集群FP8算力范围高达8~80 TFLOPS,且具备灵活配置的能力,单核心带宽可达到256GB/s。这意味着它能够支持端侧大型模型运行所需的W4A8 / W4A16计算加速模式。此外,该产品还集成了安谋自研的WDC解压硬件,使得等效带宽进一步提升了15%。这样的技术进步无疑将推动相关领域的创新与发展。

在软件生态方面,“周易”X3搭载了Compass AI软件平台,兼容TensorFlow、ONNX、PyTorch等主流AI框架,支持GPTQ等大模型的主流量化方案,以及Hugging Face模型库中的各类模型,如LLM、VLM、VLA和MoE等。这种广泛的兼容性为开发者提供了更多的选择,使得他们能够更高效地开展工作。

根据安谋科技的介绍,“周易”X3在性能上相较于前代产品有了显著提升,其FP16 TFLOPS是前一代的16倍,计算核心带宽则提升了4倍。CNN模型的性能较上一代提升了30%-50%,而在同样的算力规格下,AIGC大模型的能力提升达到了10倍。这些令人振奋的数字不仅展示了安谋科技在技术创新上的持续努力,也为未来的智能化发展注入了强大的动力。

总之,“周易”X3的推出标志着安谋科技在NPU领域的又一次重要突破。随着技术的不断进步和应用场景的不断拓展,我们有理由相信,这款产品将会在推动智能科技进步的道路上发挥不可或缺的作用。

快讯中提到的AI工具

PyTorch
PyTorch

深度学习领域的强大资源平台

TensorFlow
TensorFlow

功能强大的开源AI机器学习框架

Hugging Face
Hugging Face

机器学习和人工智能技术的平台

© 版权声明:
本文地址:https://aidh.net/kuaixun/tmlg2rie

暂无评论

none
暂无评论...