书生·浦语2.5开源:提供1.8B超轻量级及20B高性能多种参数版本选择

9个月前发布AI俱乐部
4 0 0
书生·浦语2.5开源:提供1.8B超轻量级及20B高性能多种参数版本选择的封面图

在2024年7月4日的WAIC世界人工智能大会上,备受瞩目的上海人工智能实验室发布了书生·浦语大模型InternLM2.5。这个新版本在原有的基础上实现了显著升级,将上下文窗口扩展至高达100万级别,从而能够处理更为复杂和庞大的信息。

InternLM2.5提供了多种不同规格的模型选择,包括18亿、70亿和200亿参数的版本,以满足不同应用场景的需求。其中,18亿参数的模型主要面向推理任务,而200亿参数的模型则侧重于提升模型的理解能力,从而更好地处理复杂场景。目前,这些模型已在书生·浦语开放大模型体系、ModelScope以及Hugging Face等平台上发布。

InternLM2.5在多个关键评测基准上取得了卓越的性能表现,尤其是在需要复杂计算和推理能力的MATH评测中,准确率高达64.7%。此外,该模型在长文本处理方面也表现出色,能够处理包含大量信息的复杂文档。

InternLM2.5还集成了多种先进技术,以支持更高效的模型训练和部署,包括来自上海人工智能实验室的XTuner微调工具和LMDeploy推理工具,并兼容如vLLM、Ollama以及llama.cpp等多种主流的推理框架。同时,通过开源的SWIFT工具,用户可以更便捷地使用InternLM2.5大模型进行训练、微调和部署。

这些模型的发布不仅为研究人员提供了强大的工具,也为各行各业带来了更智能的应用解决方案,助力各行各业实现智能化升级。

书生·浦语开放大模型体系:

https://internlm.intern-ai.org.cn

ModelScope 模型:

https://www.modelscope.cn/organization/ShanghaiAILaboratory?tab=model

Hugging Face 模型:

https://huggingface.co/internlm

InternLM2.5 代码仓库:

https://github.com/InternLM/InternLM

快讯中提到的AI工具

Ollama
Ollama

让AI大语言模型触手可及

Hugging Face
Hugging Face

机器学习和人工智能技术的平台

© 版权声明:
本文地址:https://aidh.net/kuaixun/b39b1j3k

暂无评论

none
暂无评论...