智源发布三款全新BGE模型,向量检索性能再创新高

8个月前发布AI俱乐部
3 0 0
智源发布三款全新BGE模型,向量检索性能再创新高的封面图

我们很高兴地宣布发布了三个全新的Embedding模型,这些模型已经在多个检索任务上进行了评估,并且都取得了非常优秀的性能。以下是这三个模型的详细信息:

  1. BGE-EN-ICL: 这是一个专门为英语设计的Embedding模型,它能够显著提高小样本学习环境下的检索效果,通过模仿模型对上下文信息的理解来提升检索的准确性。

  2. BGE-Multilingual-Gemma2: 这是一个多语言Embedding模型,具备广泛的语言覆盖能力,能够在多种语言环境下实现优秀的检索性能。

  3. BGE-Reranker-v2.5-Gemma2-Lightweight: 这是一个轻量级的排序模型,它的设计目标是优化检索结果的排序,能够对检索到的文档进行更精确的排序,同时减少计算资源的需求以及token的使用量,从而实现更高效的检索。

这些Embedding模型适用于各种信息检索场景,能够有效提高搜索的准确性和相关性,并优化搜索结果的呈现方式。如果您需要在多语言环境下进行信息检索,或者需要一种能够有效提高排序质量的轻量级模型,那么这些模型将是您的理想选择。BGE-Reranker-v2.5-Gemma2-Lightweight模型尤其适合那些需要在资源受限的环境中进行高效排序的场景。

总的来说,这些Embedding模型在MTEB、BEIR、AIR-Bench等多个基准测试中都表现出色。BGE-Multilingual-Gemma2在多语言检索任务中表现优异,能够跨越语言障碍实现高效的信息检索。BGE-EN-ICL在小样本学习方面表现突出,即使在数据量有限的情况下也能实现优秀的检索效果。BGE-Reranker-v2.5-Gemma2-Lightweight则以其高效的排序能力和较低的资源消耗,为各种检索应用提供了更灵活的选择。

模型链接

(1) BGE-EN-ICL:

https://huggingface.co/BAAI/bge-en-icl

(2) BGE-Multilingual-Gemma2:

https://huggingface.co/BAAI/bge-multilingual-gemma2

(3) BGE-Reranker-v2.5-Gemma2-Lightweight:

https://huggingface.co/BAAI/bge-reranker-v2.5-gemma2-lightweight

© 版权声明:
本文地址:https://aidh.net/kuaixun/hho6fi7t

暂无评论

none
暂无评论...