元象发布XVERSE-MoE-A36B混合专家开源大模型,激活参数高达360亿

6个月前发布AI俱乐部
4 0 0
元象发布XVERSE-MoE-A36B混合专家开源大模型,激活参数高达360亿的封面图

为了应对日益增长的复杂应用场景,深势科技推出了新一代混合专家模型——XVERSE-MoE-A36B。这款模型的推出,旨在为中国人工智能领域注入新的活力,推动国内大模型技术的创新发展。

XVERSE-MoE-A36B模型融合了255B的总参数和36B的激活参数,在保证性能的同时,降低了对计算资源的需求,使其在资源受限的环境中也能高效运行。相较于传统的密集模型,该模型仅需激活30%的参数即可完成100%的推理计算,有效降低了AI推理的成本,提高了资源利用率。

深势科技的XVERSE系列一直致力于打造更高效的模型。此次推出的混合专家模型旨在通过创新的架构设计,应对复杂任务挑战,提升模型的处理能力和泛化性能。MoE架构能够有效提升大规模AI模型的性能,通过智能地分配计算资源,实现了性能与效率的平衡。这款模型的发布,旨在优化模型的计算效率,降低使用成本。

当前,国内外已涌现出一批优秀的MoE模型,例如中国的Skywork-MoE和海外的Mixtral-8x22B,以及拥有3140亿参数的Grok-1-A86B。这些模型的出现,标志着MoE技术在人工智能领域的广泛应用和快速发展。

资源链接

  • Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B

  • 魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A36B

  • Github:https://github.com/xverse-ai/XVERSE-MoE-A36B

  • 邮箱:opensource@xverse.cn

  • 体验:chat.xverse.cn

快讯中提到的AI工具

Hugging Face
Hugging Face

机器学习和人工智能技术的平台

© 版权声明:
本文地址:https://aidh.net/kuaixun/9kdo37ea

暂无评论

none
暂无评论...