

AI21Labs 最近发布了其最新的 Jamba1.6 系列大型语言模型,该模型被称为当前市场上处理长文本的最强大和最高效的选择。与传统的 Transformer 模型相比,Jamba 模型在处理长上下文时展现出更高的速度与质量,其推理速度比同类模型快了 2.5 倍,标志着一种技术上的重大突破。
Jamba1.6 系列包括 Jamba Mini(12 亿参数)和 Jamba Large(94 亿参数),并且经过专门优化,以满足商业应用的需求,具备函数调用、结构化输出(如 JSON)和基于现实的生成能力。这些模型的应用范围广泛,从企业级智能助手到学术研究,都能发挥其重要作用。
该模型采用了名为 Jamba Open Model License 的开源许可协议,允许用户在遵循相关条款的前提下进行研究与商业使用。此外,Jamba1.6 系列的知识截止日期为 2024 年 3 月 5 日,支持多种语言,包括英语、西班牙语、法语、葡萄牙语、意大利语、荷兰语、德语、阿拉伯语和希伯来语,确保了其能够满足全球用户的需求。
在性能评测方面,Jamba Large1.6 在多个基准测试中表现卓越。在 Arena Hard、CRAG 和 FinanceBench 等标准测试中,其分数均超过同类竞争对手,展现出其卓越的语言理解与生成能力,尤其在长文本处理方面表现尤为突出。
为确保高效的推理,使用 Jamba 模型的用户需先安装相关的 Python 库,并要求有 CUDA 设备来支持模型的运行。用户可以通过 vLLM 或 transformers 框架来运行该模型。在大规模 GPU 支持下,Jamba Large1.6 可以处理长达 256K 的上下文,这在之前的模型中是无法实现的。
模型链接:https://huggingface.co/ai21labs/AI21-Jamba-Large-1.6
关键点:
🌟 Jamba1.6 模型在长文本处理方面速度更快、质量更高,支持多种语言。
🚀 开源许可协议允许进行研究和商业使用,推动技术共享。
💡 在多项基准测试中表现卓越,超越同类竞争产品。