MiniMax发布MiniMax-01系列模型,性能媲美GPT-4o

2个月前发布AI俱乐部
3 0 0
MiniMax发布MiniMax-01系列模型,性能媲美GPT-4o的封面图

MiniMax计划于2025年1月15日发布其自研的通用大模型MiniMax-01,其中包括文本生成模型MiniMax-Text-01和多模态大模型MiniMax-VL-01。MiniMax-01模型采用了混合专家架构,旨在实现高效的推理和生成能力,该模型基于Transformer架构打造。在性能评测方面,该模型使用了4560个prompt,通过盲测选取459个prompt,结果表明,在保证相当水平的安全性的前提下,MiniMax-01在超过400个token的长度上,性能超过GPT-4o的32个百分点以及Claude-3.5-Sonnet的20个百分点。

MiniMax的目标是到2025年,Agent能够实现自主决策,这意味着Agent能够独立完成任务。为了实现这个目标,需要大幅提升模型的理解、规划和执行能力。MiniMax-01模型的发布,预示着朝着更高智能的Agent迈出了重要的一步,有望显著提升Agent解决复杂问题的能力。

除了模型本身的创新外,为了进一步降低使用成本,MiniMax致力于提供更经济的模型服务,让更多的开发者能够使用到先进的大模型技术,并提供更具竞争力的API接口。MiniMax大幅降低了token的平均价格,如输入token的价格为1元/百万token,输出token的价格为8元/百万token。MiniMax希望能够为开发者提供触手可及的AI能力。

MiniMax-01大模型已在GitHub上开源,方便开发者学习研究。开源内容包括模型的代码和相关的多模态评测基准。通过开源MiniMax-01模型,旨在与研究者们共同探索大模型的更多可能性,其综合性能已超越GPT-4o-1120和Claude-3.5-Sonnet-1022。在文本理解方面,与Google的Gemini模型相比,MiniMax-Text-01在长文本处理和知识检索方面表现更优秀,能够更好地应对复杂任务。

MiniMax的模型在推理成本控制方面表现出色,有助于提高生成效率。通过结合专家选择,能够优化计算资源分配。在技术层面,MiniMax采用了8卡到7卡训练的Lightning Attention机制,以及1卡推理的SoftMax推理。总之,专家选择能够显著降低推理过程中的计算量,而MiniMax在Scaling Law和MoE架构、并行推理和优化等方面做出了大量投入,包括优化MoE All-to-all通信,专家选择调度和高性能Kernel等。

在真实应用场景中,MiniMax-01模型展示出了强大的实用价值。在长文本的评估方面,展现出了卓越的性能。特别是在超过400个token的Needle-In-A-Haystack测试中,成功检索到关键信息。在性能方面,MiniMax着重提升了复杂场景下的数据处理能力,MiniMax-Text-01在复杂文本理解方面表现突出。而MiniMax-VL-01则在多模态交互方面拥有优势。

项目地址:https://github.com/MiniMax-AI

快讯中提到的AI工具

Lightning
Lightning

全面的AI开发平台,助力快速构建AI产品

Claude
Claude

由Anthropic公司开发的下一代人工智能AI助手

GPT-4o
GPT-4o

OpenAI 最新的旗舰模型

GPT-4
GPT-4

OpenAI 发布的最新一代语言模型

© 版权声明:
本文地址:https://aidh.net/kuaixun/3025ldc4

暂无评论

none
暂无评论...