

为了应对日益增长的复杂应用场景,深势科技推出了新一代混合专家模型——XVERSE-MoE-A36B。这款模型的推出,旨在为中国人工智能领域注入新的活力,推动国内大模型技术的创新发展。
XVERSE-MoE-A36B模型融合了255B的总参数和36B的激活参数,在保证性能的同时,降低了对计算资源的需求,使其在资源受限的环境中也能高效运行。相较于传统的密集模型,该模型仅需激活30%的参数即可完成100%的推理计算,有效降低了AI推理的成本,提高了资源利用率。
深势科技的XVERSE系列一直致力于打造更高效的模型。此次推出的混合专家模型旨在通过创新的架构设计,应对复杂任务挑战,提升模型的处理能力和泛化性能。MoE架构能够有效提升大规模AI模型的性能,通过智能地分配计算资源,实现了性能与效率的平衡。这款模型的发布,旨在优化模型的计算效率,降低使用成本。
当前,国内外已涌现出一批优秀的MoE模型,例如中国的Skywork-MoE和海外的Mixtral-8x22B,以及拥有3140亿参数的Grok-1-A86B。这些模型的出现,标志着MoE技术在人工智能领域的广泛应用和快速发展。
资源链接
-
Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B
-
魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A36B
-
Github:https://github.com/xverse-ai/XVERSE-MoE-A36B
-
邮箱:opensource@xverse.cn
-
体验:chat.xverse.cn
快讯中提到的AI工具

Hugging Face
机器学习和人工智能技术的平台
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/9kdo37ea暂无评论...