

我们很高兴地宣布发布了三个全新的Embedding模型,这些模型已经在多个检索任务上进行了评估,并且都取得了非常优秀的性能。以下是这三个模型的详细信息:
-
BGE-EN-ICL: 这是一个专门为英语设计的Embedding模型,它能够显著提高小样本学习环境下的检索效果,通过模仿模型对上下文信息的理解来提升检索的准确性。
-
BGE-Multilingual-Gemma2: 这是一个多语言Embedding模型,具备广泛的语言覆盖能力,能够在多种语言环境下实现优秀的检索性能。
-
BGE-Reranker-v2.5-Gemma2-Lightweight: 这是一个轻量级的排序模型,它的设计目标是优化检索结果的排序,能够对检索到的文档进行更精确的排序,同时减少计算资源的需求以及token的使用量,从而实现更高效的检索。
这些Embedding模型适用于各种信息检索场景,能够有效提高搜索的准确性和相关性,并优化搜索结果的呈现方式。如果您需要在多语言环境下进行信息检索,或者需要一种能够有效提高排序质量的轻量级模型,那么这些模型将是您的理想选择。BGE-Reranker-v2.5-Gemma2-Lightweight模型尤其适合那些需要在资源受限的环境中进行高效排序的场景。
总的来说,这些Embedding模型在MTEB、BEIR、AIR-Bench等多个基准测试中都表现出色。BGE-Multilingual-Gemma2在多语言检索任务中表现优异,能够跨越语言障碍实现高效的信息检索。BGE-EN-ICL在小样本学习方面表现突出,即使在数据量有限的情况下也能实现优秀的检索效果。BGE-Reranker-v2.5-Gemma2-Lightweight则以其高效的排序能力和较低的资源消耗,为各种检索应用提供了更灵活的选择。
模型链接
(1) BGE-EN-ICL:
https://huggingface.co/BAAI/bge-en-icl
(2) BGE-Multilingual-Gemma2:
https://huggingface.co/BAAI/bge-multilingual-gemma2
(3) BGE-Reranker-v2.5-Gemma2-Lightweight:
https://huggingface.co/BAAI/bge-reranker-v2.5-gemma2-lightweight